Qualicities Agence Web

Agence Digitale et SEO à Troyes

04 Lire

Comprendre les moteurs de recherche

Utilisez ces ressources en ligne exceptionnelles pour obtenir l’équivalent d’un semestre d’introduction aux moteurs de recherche 101″ – sans avoir à retourner à l’école pour vos études.
Les moteurs de recherche Web sont une excroissance de la recherche universitaire sur la recherche d’informations. Les travaux sur les systèmes de recherche d’informations ont commencé à la fin des années 1960, bien avant l’avènement du Web dans les années 1990.
Lire l’histoire des systèmes de recherche d’informations et leur évolution au fil des décennies n’est pas seulement un exercice fascinant en soi, cela peut également vous aider à améliorer vos propres compétences en matière de recherche.
Pour un excellent aperçu, Qualicities consultez l’article du professeur Osmar R. Zaïane From Resource Discovery to Knowledge Discovery sur Internet. Il s’agit d’une histoire captivante de la recherche d’informations et discute de nombreux principes de base qui sous-tendent les opérations des moteurs de recherche d’aujourd’hui.
Bien qu’il s’agisse d’un rapport technique publié par l’Université Simon Fraser, le document est éminemment lisible. La première partie décrit les concepts de base de la recherche d’informations, y compris la numérisation de documents par force brute, les techniques conventionnelles de recherche de documents et les défis particuliers de l’indexation et de la recherche de documents hypertextes et de contenu multimédia sur le Web.
Ensuite, le Dr Zaïane propose une enquête sur la découverte de ressources sur Internet. Il s’agit d’un aperçu technique de la façon dont les moteurs de recherche et les annuaires sont créés et maintenus. Bien que le document ait été écrit avant l’ère Google, il offre toujours des informations solides pour vous aider à comprendre le fonctionnement de vos outils de recherche préférés.
La dernière section est consacrée à l’exploration de données ou à la découverte de connaissances sur Internet — ce qui doit être fait pour aider à améliorer les résultats de recherche.
Si vous voulez vraiment approfondir vos connaissances sur la technologie de recherche, rendez-vous sur le site Web de la School of Information Management and Systems de l’Université de Californie à Berkeley. La plupart des cours dispensés sur le campus sont pris en charge par des sites Web et contiennent de nombreux liens vers des notes de cours, des présentations, des articles et d’autres supports de cours.
En particulier, consultez les pages du SIMS 202 : Organisation et récupération de l’information. C’est vraiment les moteurs de recherche 101 », à partir de concepts de base tels que Qu’est-ce que l’information ? De nombreux supports de cours sont disponibles en ligne.
Vous pouvez trouver de nombreux autres cours similaires sur d’autres sites Web universitaires. Utilisez la recherche universitaire de Google, avec des mots-clés tels que les moteurs de recherche « ou la recherche d’informations » pour les trouver.

Les moteurs de recherche et l’automatisation

Une fois que le plaisir d’apprendre à voler s’est estompé, la plupart des pilotes expérimentés confient les commandes au pilote automatique, en particulier pour les itinéraires fréquemment parcourus. Si vous répétez la même requête au fil du temps, vous pouvez à la fois améliorer vos résultats et simplifier la recherche en tirant parti des moteurs de recherche qui proposent le pilote automatique.
Connus sous le nom d’alertes de recherche », ces services sont différents de nombreux services d’alerte, car ils vous donnent un grand contrôle sur vos requêtes. La plupart des services d’alerte reposent sur de simples requêtes de mots clés ou sur la reconnaissance des modifications physiques apportées aux pages Web. Les services d’alerte de Northern Light et Profusion, d’autre part, vous permettent de créer des alertes personnalisées plus puissantes.
Les alertes de recherche de Northern Light vous envoient un e-mail chaque fois que la base de données de Northern Light a été mise à jour avec de nouveaux documents correspondant à vos termes de recherche. Il existe deux façons de créer une alerte. Le plus simple est simplement de sauvegarder toute recherche que vous effectuez sur Northern Light en tant qu’alerte, en utilisant le lien fourni en haut de chaque page de résultats.
Cependant, vous obtiendrez probablement de meilleurs résultats et réduisez considérablement le nombre de fausses gouttes si vous vous connectez au service d’alertes de recherche. Cela vous donne plus de contrôle sur votre requête, vous permettant de créer une alerte qui exécute une recherche simple, une recherche avancée, une recherche d’entreprise, une recherche par investissement ou une recherche d’actualités. Vos champs de recherche sont légèrement différents pour chaque type de recherche, il est donc important de choisir un type de recherche avant de saisir vos mots-clés.
Pour tous les types de recherche autres que la recherche simple, vous pouvez également limiter votre recherche à des catégories spécifiques et faire trier les résultats soit par pertinence, soit par date et heure. Vous pouvez également limiter votre requête aux mots d’un titre de document, d’un nom de publication ou d’une URL. Ces limites peuvent être extrêmement utiles pour créer des recherches très étroites et ciblées, garantissant des résultats très pertinents.
Une fois que vous avez créé votre recherche, vous pouvez prévisualiser les résultats. S’ils ne sont pas satisfaisants, vous pouvez modifier vos paramètres jusqu’à ce que vous obteniez exactement ce que vous voulez. C’est tout ce qu’on peut en dire.
Lorsque la base de données de Northern Light a été mise à jour avec des sites Web ou des articles de la collection spéciale qui correspondent à vos termes de recherche, vous recevrez un e-mail contenant une URL. Pour afficher vos résultats mis à jour, Qualicities cliquez sur ce lien. Northern Light souligne qu’il est nécessaire de cliquer sur l’URL envoyée dans l’e-mail pour voir tous les sites qui ont été ajoutés depuis la dernière fois que vous avez cliqué sur la mise à jour de l’alerte de recherche.
Pour suivre les nouveaux sites Web, les actualités ou d’autres événements en cours, les alertes de recherche Northern Light valent vraiment le détour. Vous devez avoir un compte chez Northern Light, mais l’inscription est gratuite.
Le métamoteur de recherche Profusion vous permet de créer une alerte de recherche unique qui est exécutée chaque jour sur jusqu’à dix moteurs de recherche. Bien que Profusion ne vous offre pas la gamme complète d’options de limitation que Northern Light propose, vous pouvez néanmoins affiner votre recherche en utilisant le formulaire de recherche avancée.
Ce formulaire vous permet d’appliquer des opérateurs booléens limités, de spécifier le nombre total de résultats et le nombre par source et, de manière unique, d’effectuer une vérification de lien sur les résultats pour s’assurer qu’aucun des liens n’est rompu. Il vous permet également de choisir les moteurs de recherche, y compris une option pour n’utiliser que ceux que Profusion détermine être les trois meilleurs ou les trois les plus rapides pour votre requête.
Une fois la recherche lancée, vous disposez de deux options pour enregistrer les alertes. Vous pouvez enregistrer l’intégralité de la requête en cliquant sur le lien « Définir l’alerte de recherche » en haut de la page de résultats. Vous pouvez également surveiller les pages individuelles affichées dans votre liste de résultats en cliquant sur le lien « Définir l’alerte de page » à côté du titre de la page.

Les virus et autres attaques

La diffusion délibérée d’infections d’ordinateurs personnels nuisibles est un autre type de cybercriminalité. En fait, il s’agissait de l’activité criminelle de prédilection du premier individu à être condamné aux États-Unis dans le cadre de l’action contre les escroqueries et les abus informatiques de 1986. Le 2 novembre 1988, un étudiant en sciences informatiques de l’université Cornell nommé Robert Morris a lancé une demande « ver » sur le Web depuis le MIT (étant un visiteur autour du campus, il espérait rester anonyme). Le ver était un programme informatique personnel expérimental qui s’auto-propage et se duplique et tire parti des imperfections de certains protocoles de courrier électronique. En raison d’une erreur dans son codage, au lieu de simplement fournir des copies de lui-même avec d’autres ordinateurs, ce logiciel a continué à se dupliquer sur chaque programme contaminé, remplissant toute la mémoire informatique disponible. Avant qu’une réparation ne soit trouvée, le ver avait introduit quelque 6 000 systèmes informatiques (un dixième d’Internet) jusqu’à un certain point. Bien que le ver de Morris ait coûté du temps et d’énormes sommes d’argent à réparer, le grand événement a eu quelques effets industriels, car votre Web n’était pas encore devenu un incontournable des questions financières. Que le père de Morris était le meilleur de la sécurité informatique pour votre You.S. La National Security Company a mené l’effort pour faire face au grand événement davantage comme un drame œdipien de haute technologie que comme une préfiguration des points à venir. Depuis lors, des infections de plus en plus nocives ont été préparées par des anarchistes et des marginaux venus d’endroits aussi divers que l’Amérique, la Bulgarie, le Pakistan et les Philippines. Évaluez le ver Morris en utilisant les occasions de la semaine du 7 février 2000, lorsque « mafiaboy », un pirate informatique canadien âgé de 15 ans, a orchestré un certain nombre d’attaques par déni de service (DoS) contre plusieurs sites Web de commerce électronique, y compris Amazon.com et craigslist et ebay.com. Ces agressions ont utilisé des systèmes informatiques à plusieurs endroits pour submerger les ordinateurs des fournisseurs et fermer leurs sites World Wide Web (WWW) pour légitimer les visiteurs commerciaux. Les agressions ont paralysé le commerce Web, selon le FBI estimant que les sites Web touchés ont subi des problèmes de 1,7 milliard de dollars. En 1988, Internet n’intervenait que dans les modes de vie des experts et des universitaires ; en 2000, il est devenu important pour le fonctionnement de la You.S. gouvernement et économie. La cybercriminalité vécue est passée d’un problème d’actes répréhensibles individuels à un point de sécurité à l’échelle nationale. Les attaques DoS distribuées sont vraiment un type unique de piratage. Un illégal sale une gamme de systèmes informatiques avec des programmes informatiques qui peuvent être activés par un autre consommateur d’ordinateurs. Ces applications sont connues sous le nom de chevaux de Troie car elles pénètrent dans les systèmes informatiques des utilisateurs inconscients comme quelque chose de bénin, comme une photo ou un document connecté à un courrier électronique. Dans un délai prédéterminé, ce programme cheval de Troie commence à envoyer des informations à un site prédéterminé. Si suffisamment d’ordinateurs ont été compromis, il est probable que le site sélectionné puisse être bloqué de manière si efficace que peu ou pas de trafic légitime puisse l’atteindre. Un aperçu essentiel fourni par ces événements a été qu’un grand nombre de logiciels sont vulnérables, ce qui permet même à un pirate informatique non qualifié d’abandonner un nombre énorme de machines. Même si les entreprises de logiciels proposent régulièrement des correctifs pour corriger les vulnérabilités des logiciels, tous les utilisateurs ne mettent pas en œuvre les mises à jour et leurs ordinateurs restent vulnérables aux criminels cherchant à lancer des attaques DoS. En 2003, le fournisseur Web PSINet European countries a relié un serveur non protégé au Web. En vingt-quatre heures, l’hôte avait été attaqué 467 fois, et après trois semaines, plus de 600 attaques avaient été enregistrées. Seuls des régimes de protection rigoureux peuvent protéger un tel environnement. Indépendamment des affirmations concernant la mère nature pacifique de l’Internet, il est préférable de le considérer comme un exemple contemporain de la tradition Wild Western des États-Unis utilisant le shérif loin.

Du microblogging à Twitter

Youtube est certainement un service de microblogging en ligne permettant de diffuser des messages courts parmi des groupes de destinataires via un ordinateur ou un téléphone portable. Twitter inclut des aspects des sites Web de médias sociaux, comme Myspace et Facebook, avec des systèmes de messagerie immédiate pour créer des systèmes de clients capables de se connecter pendant la journée avec de brèves informations, ou « tweets ». Un utilisateur tape un tweet via le clavier d’un téléphone portable ou un ordinateur et le transmet au serveur de Twitter, qui le transmet à une liste d’autres utilisateurs (appelés abonnés) qui se sont inscrits pour recevoir les tweets de l’expéditeur par message pour leur téléphone portable ou par message à leurs ordinateurs. De plus, les utilisateurs peuvent choisir de surveiller des sujets particuliers, créant une sorte de dialogue et poussant le nombre de fans dans une offre Youtube donnée à des centaines de milliers. Les tweets peuvent porter sur n’importe quel sujet, allant des blagues aux informations en passant par les plans de dîner, mais ils ne peuvent pas dépasser 140 chiffres. Twitter a été construit à l’aide de Ruby on Rails, un cadre de programme Internet spécialisé pour le langage de codage informatique Ruby. Son interface permet une adaptation et une intégration ouvertes avec d’autres services Internet. Le service a été créé en 2006 par Evan Williams et Biz Stone, qui ont chacun travaillé dans des moteurs de recherche avant de partir pour produire l’entreprise de podcasting Odeo. Williams, qui avait auparavant créé l’outil de création Web populaire Blogwriter, a commencé à expérimenter en utilisant l’un des projets parallèles d’Odeo – un service de messages brefs (SMS) alors connu sous le nom de Twttr. En visite à long terme pour le produit, Williams a racheté Odeo et a lancé Apparent Corp. pour aider à le construire. L’ingénieur Jack Dorsey est devenu membre de l’équipe de direction, ainsi que la version complète de Twitter a fait ses débuts lors de la conférence musicale Southern by Southwest à Austin, dans l’État du Texas, en mars 2007. Ce mois-ci, Youtube, Inc., a été développé comme un personne morale, en raison d’une injection de capital d’entreprise. Dès le début, Twitter était principalement un SMS totalement gratuit comportant un élément de médias sociaux. En tant que tel, il manquait le flux de revenus clair qu’une personne pouvait trouver sur des sites qui extrayaient des revenus de bannières publicitaires ou de frais d’adhésion. Le nombre de visiteurs uniques du site ayant augmenté d’environ 1 300 % en 2009, il était évident que Twitter était plus qu’un intérêt du marché. Cependant, au cours d’une année qui a vu le mastodonte des réseaux sociaux Facebook ou Twitter réaliser des bénéfices pour la première fois, il n’était pas clair si Twitter pouvait atteindre l’indépendance financière des investisseurs en capital d’entreprise. En avril 2010, Twitter a dévoilé les « Tweets sponsorisés », des publicités qui apparaîtront dans les résultats de recherche, comme sa principale source de revenus. Les racines de Twitter dans les médias sociaux étaient évidentes en avril 2009, lorsque l’acteur Ashton Kutcher a fait surface en tant que vainqueur d’un concours avec CNN pour devenir le premier Twitterer à rassembler plus d’un million de fans. Alors que « l’observation en ligne » des célébrités est restée un attrait substantiel pour les services, les entreprises ont rapidement commencé à envoyer des tweets sur les promotions et les occasions, et les stratégies gouvernementales ont identifié la valeur de Youtube comme outil de communication. Lors de l’élection présidentielle américaine de 2008, Barack Obama a dominé son adversaire, John McCain, dans le domaine des réseaux sociaux, rassemblant près de 4 fois plus d’amis Myspace et plus de 20 fois plus de fans sur Youtube. Ce développement a pratiquement assuré que les candidats à long terme viendraient avec une présence sur les réseaux sociaux dans le cadre de leurs stratégies médiatiques. La partie peut-être la plus remarquable du développement de Twitter, cependant, a été son utilisation accrue en tant qu’appareil pour les journalistes amateurs. Youtube est passé de quelque chose qui était considéré comme un passe-temps oisif pour une planète de plus en plus branchée en une source d’information de pointe qui transcendait les frontières gouvernementales. Le 15 janvier 2009, un tweet de Janis Krums, voyageur de ferry de banlieue, a révélé l’histoire de l’arrivée d’eau efficace sur le vol 1549 d’Airways Airline sur le Hudson Stream à New York. Une image de téléphone d’appareil photo numérique rapidement capturée des passagers débarquant de l’avion submergé à cinquante pour cent a été soumise à Twitpic.com, un service d’hébergement de photos pour les utilisateurs de Youtube ; le site s’est rapidement écrasé alors que des milliers de twittos tentaient de le voir en même temps.

Le marketing et l’automatisation

« Sur le marché néo-zélandais, l’automatisation du marketing est encore une discipline relativement nouvelle pour certaines organisations », explique Nathalie Morris, directrice générale de la société d’automatisation du marketing néo-zélandaise Ubiquity.

«Mais au cours des deux dernières années, nous avons constaté un intérêt et une compréhension beaucoup plus importants des possibilités de l’automatisation du marketing. Je pense que 2017 sera l’année où nous verrons vraiment sa croissance parmi les entreprises ici désireuses d’agir et de commencer à prendre l’automatisation du marketing plus au sérieux », a-t-elle déclaré.

En tant qu’outil à la fois pour les entreprises de taille moyenne et les grandes entreprises, l’automatisation du marketing, dans ses termes les plus simples, fait référence aux logiciels et aux technologies qui automatisent certaines actions marketing. Et comme il rend le marketing pour les entreprises à la fois plus efficace en termes de portée et de valeur, les avantages du marketing automatisé sont exponentiels.

« Ce que nous constatons avec l’automatisation, c’est le passage d’une approche de type campagne à une approche de type « toujours » qui est plus efficace car il envoie des messages aux gens au bon moment pour eux », explique Morris.

« Cela permet également aux spécialistes du marketing d’être plus efficaces car plutôt que d’être sur ce mode constant d’exécution de campagnes, ils peuvent mettre en place un programme automatisé qui s’exécute pour eux et leur permet de passer au programme suivant. »

Mais ce n’est pas aussi simple que d’avoir une solution unique pour chaque entreprise, Google explique Morris. Alors que certaines entreprises disposent de bases de données riches en informations sur leurs clients, d’autres ne parviennent pas à tirer le meilleur parti des potentialités du marketing basé sur les données, finissant souvent par envoyer le même message à tout le monde.

« Je pense que ce que nous constatons, c’est une compréhension croissante au sein du marché que lorsque vous n’utilisez pas les données pour parler aux gens de manière plus personnalisée et pertinente, vous passez à côté », déclare Morris.

« Les consommateurs commencent à s’attendre à ce que les communications qu’ils reçoivent soient adaptées et personnalisées autour d’eux, les spécialistes du marketing doivent donc utiliser ces données pour personnaliser et cibler leurs messages.

Souvent, les entreprises qui se lancent dans l’automatisation du marketing ne disposent pas d’un ensemble de données complet, c’est pourquoi Morris préconise une approche plus progressive qui leur permet de le développer au fil du temps.

« Ils n’ont peut-être pas nécessairement toutes les données dont ils ont besoin, mais ils peuvent prévoir de générer plus d’informations », dit-elle.

« Par exemple, la plate-forme d’automatisation du marketing Ubiquity Engage peut suivre le contenu d’un e-mail avec lequel une personne s’engage et l’utiliser pour mieux comprendre ses intérêts, ou mettre des codes de suivi dans les sites Web qui relient le comportement des personnes au sein de ces sites Web à cette base de données marketing centrale . « 

« Cela nous permet de commencer à construire une image très riche du client grâce aux informations de base que nous avons à son sujet et à examiner son comportement à travers une gamme de points de contact différents. »

Pour tous ceux qui travaillent dans l’environnement marketing actuel, l’un des plus grands défis consiste à gérer le flux constant de changement chez les consommateurs comportement et technologie. En raison de l’état continu des flux auxquels les spécialistes du marketing doivent faire face, Morris souligne le besoin d’un partenaire d’automatisation du marketing qui vous soutiendra dans les moments difficiles. Et avec l’un des principaux points de différence d’Ubiquity étant sa gamme complète de services de stratégie, d’exécution et d’optimisation, leur équipe d’experts locaux comprend comment utiliser les données et obtenir les résultats.

« Les spécialistes du marketing doivent être sûrs que les partenaires avec lesquels ils travaillent les aident réellement à naviguer dans ce changement et ce que cela signifie », explique Morris. « Le marketing devient de plus en plus complexe et les spécialistes du marketing doivent rapidement comprendre un éventail beaucoup plus large de canaux et de technologies. Parce qu’il y a beaucoup de gens qui ne l’ont jamais fait auparavant, il est important que des prestataires comme Ubiquity aident les clients à comprendre cette image plus large.

Alors que les clients recherchent une approche plus personnelle de leurs interactions quotidiennes avec les marques, les entreprises ont adopté une approche plus centrée sur le client dans leur façon de travailler. Et avec l’automatisation du marketing, l’époque des communications génériques est révolue depuis longtemps, car les entreprises cherchent à garder les choses personnelles.

Pour le franchiseur de la clinique Caci, FAB Group, l’approfondissement de la relation client est l’un de ses principaux objectifs, et comme l’explique Emily Stevenson, responsable marketing et communication, l’automatisation du marketing a offert au groupe FAB l’opportunité d’utiliser leurs données de manière significative et pertinente.

« Lorsque nous avons commencé à utiliser l’automatisation du marketing, c’était pour des tâches simples telles que des e-mails d’anniversaire automatisés et des messages » vous nous avez manqué « pour réengager les clients inactifs », dit-elle.

« Mais maintenant, nous utilisons la plate-forme pour effectuer toutes sortes d’activités, telles que l’envoi de rappels de rendez-vous, l’offre de matériel pertinent basé sur le comportement d’achat et la notification aux clients des paniers abandonnés. »

Stevenson croit les e-mails personnalisés ont eu un effet tangible sur les communications marketing de FAB Group, et Engage, la plate-forme d’automatisation du marketing basée sur le cloud d’Ubiquity, leur permet de développer des communications spécifiques en fonction de leurs objectifs.

« Les taux d’ouverture de nos e-mails automatisés sont jusqu’à 40 % plus élevés que les autres e-mails, ce qui montre que ces éléments de communication sont plus pertinents et plus précieux pour nos clients », dit-elle.

« Parce que nous pouvons segmenter en fonction des données démographiques, des préférences des clients, du comportement d’achat et même de leur engagement avec les éléments de communication précédents, nous pouvons fournir un élément de communication avec un contenu dynamique personnalisé qui change en fonction de la personne que nous ciblons. »

L’efficacité de l’agilité du digital

Dans le monde des affaires en évolution rapide d’aujourd’hui, il est essentiel pour les entreprises et les entreprises de réagir et de s’adapter plus rapidement que jamais. Le changement électronique offre des possibilités en optimisant l’utilisation des ressources, en innovant les capacités et en créant des relations durables avec les clients. Tout au long du parcours des organisations dans la transformation numérique, la vitesse est l’un des facteurs les plus importants à considérer. Au cours de cet entretien, nous avons apprécié la conversation avec le professeur Stijn Viaene de la Vlerick Business School, qui nous a parlé de l’importance de la transformation agile et de la manière dont elle entraîne et génère le changement électronique. Q La vitesse de mise à l’échelle est un sujet important en ce moment, en particulier pour les organisations tout au long de leur quête de transformation numérique. Pouvez-vous nous dire exactement de quoi il s’agit ? Est-il délivré à toutes les entreprises ? L’importance de l’alignement, de la coordination et de l’ajout de tâches n’est pas nouvelle. Elle revient au cœur et à l’âme de la création du travail des entreprises. Ce qui a cependant évolué, c’est bien le fond vers lequel nous nous organisons : les turbulences, catalysées par la digitalisation. Une vitesse est ce qui est exigé des organisations qui veulent s’épanouir dans un environnement turbulent, comme l’économie numérique. Cela implique de la rapidité, de la flexibilité et surtout de la réactivité aux changements. Aujourd’hui, les gens associent presque automatiquement la vitesse au développement d’équipes multidisciplinaires et personnalisées. Ces groupes sont motivés pour déterminer de manière autonome, sans avoir à escalader constamment la sélection. Les modèles accessibles au public pour appliquer un travail d’équipe agile, tels que Scrum ou Kanban, sont devenus de plus en plus populaires. Maintenant, si vous n’avez qu’un groupe particulier, qui n’est pas trop grand, composé d’individus hautement qualifiés, ainsi qu’un groupe avec une excellente dynamique de groupe, alors ces configurations agiles peuvent certainement faire des miracles. C’est ce qui fait la prospérité des start-ups numériques. D’un autre côté, que se passe-t-il si vous avez 10, 20, 80 ou plus de ces groupes agiles qui exploitent simultanément toutes les initiatives ? Avec toutes sortes de dépendances entre les équipes ainsi que les emplois, certains groupes peuvent avoir besoin du travail d’autres personnes comme intrants. Les projets de divers groupes peuvent fonctionner avec une ressource de données typique. Les groupes peuvent se battre pour les mêmes ressources et expertises rares. Et, que se passe-t-il s’il y a beaucoup d’héritage autour, avec lequel les équipes doivent travailler d’une manière ou d’une autre ? Cette situation se termine facilement par le chaos, en particulier lorsque la modification doit arriver rapidement ou extrêmement rapidement comme à l’ère numérique. Vous devrez découvrir des méthodes pour aligner les différents objectifs des groupes et des tâches, synchroniser l’allocation des sources et réussir à intégrer les résultats sans compromettre l’agilité des groupes et c’est certainement un défi de taille. Le défi est appelé vitesse de mise à l’échelle ou vitesse de production au niveau. Au risque de trop simplifier les choses, vous pourriez dire que dans le passé, nous nous sommes préparés à l’accent, au prix, à l’efficacité et à la stabilité. Aujourd’hui, nous visons néanmoins la concentration, mais en nous concentrant sur la production de vitesse (vitesse de mise sur le marché), de flexibilité et de choix. Q Vous avez peut-être souligné le besoin d’aligner, de coordonner et d’ajouter du travail comme essentiel pour créer de l’agilité au niveau de la fonction. Ces éléments sont essentiels pour atteindre les objectifs et l’orientation des organisations. Au fil des ans, quelles modifications avez-vous observées en termes d’objectifs et de buts de diverses organisations ? R L’importance de l’alignement, de la coordination et de l’ajout de travaux n’est pas nouvelle. C’est un retour au cœur et à l’âme de la création d’entreprise. Mais ce qui a évolué, c’est le contexte dans lequel nous nous organisons : des turbulences, catalysées par la digitalisation. Au risque de trop simplifier les choses, on pourrait dire qu’auparavant, nous nous préparions à privilégier, le coût, l’efficacité et la stabilité. De nos jours, nous avons néanmoins tourné pour nous concentrer, mais en mettant l’accent sur la création de vitesse (speed-to-market), de flexibilité et d’option. Cela ne signifie pas nécessairement que le premier groupe d’objectifs est moins essentiel en période de turbulences, bien au contraire, je dirais personnellement, mais l’obstacle a beaucoup changé pour combiner ces objectifs précédents avec les derniers. Cela nous amène instantanément au paradoxe lié à la mise à l’échelle de l’agilité : présenter une polyvalence rapide en plus de l’équilibre simultanément. C’est ce qui rend si difficile de le faire correctement. Nous devrons déterminer efficacement où l’équilibre compte et où il peut être détendu. Néanmoins, une chose est claire : à la vitesse à laquelle les choses évoluent aujourd’hui, nous ne sommes plus capables de trouver le bon équilibre entre polyvalence et stabilité en nous appuyant sur nos capacités humaines. Nous devrons travailler de manière créative avec les technologies électroniques pour nous aider à trouver et à mettre en place le bon équilibre entre stabilité et flexibilité. Q Bien que vous l’ayez dit, la stabilité et la flexibilité sont deux éléments majeurs qui doivent être accomplis via la vitesse de mise à l’échelle. Comment les pionniers peuvent-ils avoir la capacité d’utiliser l’idée d’agilité à grande échelle dans leurs organisations particulières ? R Il existe plusieurs cadres d’exercices facilement disponibles pour faire évoluer la vitesse vers le diplôme de commerce. Tous sont relativement récents. Par exemple, il y a « SAFe » qui signifie « Scaled Nimble Structure », mais il y a aussi « LeSS » – pour « Large Scale Scrum », Father qui est « Disciplined Agile Delivery » et plus encore. Chacun de ces cadres possède ses propres origines et sa propre gamme. Une option, dont beaucoup de gens ont peut-être entendu parler, est la « conception Spotify », connue sous le nom de service de streaming de chansons numériques, Spotify organise pour l’agilité au niveau. Il n’y a pas si longtemps, il a connu une augmentation significative lorsque l’équipe bancaire néerlandaise ING a déclaré qu’elle imiterait le modèle pour accélérer sa transformation électronique. Le modèle de Spotify est un excellent exemple pour présenter une organisation qui recherche ou peut-être une « fonction minimale viable et une conception organisationnelle ».

La mesure du succès sur Instagram

Le bruit créé après qu’Instagram a révélé que l’Australie était l’un des sept pays à tester la suppression du nombre de likes a montré le niveau de malentendu autour de ce que les marques recherchent réellement lorsqu’elles regardent la métrique des influenceurs.

Les goûts sont déjà devenus un outil de mesure important, à la fois parce que cela ne signifie pas nécessairement des résultats commerciaux et parce que les gens s’engagent simplement moins sur les médias sociaux.

«Auparavant, vous auriez dit qu’obtenir un million de mentions J’aime sur un message était formidable, mais de façon réaliste, qu’est-ce que l’entreprise souhaite générer?» dit Guyll de MSL Fluency.

« Désormais, les marques doivent se demander si elles veulent des mentions J’aime sur une publication, inciter les gens à se rendre sur le site Web de la marque pour faire des achats ou faire tomber les gens amoureux de la marque.

S’adressant à Taryn Williams de The Right Fit, Bernice Averion, spécialiste du marketing de croissance chez Koala.com, déclare qu’elle ne tient pas compte du taux d’engagement lors de la recherche d’influenceurs avec lesquels s’associer pour développer l’activité de matelas.

« Le taux d’engagement n’a pas vraiment d’importance pour moi, il s’agit vraiment de savoir quel est leur véritable public », déclare Averion. « Donc, s’ils ont 100 000 abonnés, mais que seulement 50% de cette audience se trouve en Australie, je ne veux vraiment payer que 50%. »

Reach cherche à revenir sous les projecteurs, avec l’influenceuse gourmande Sally O’Neil, qui compte plus de 90000 abonnés sur Instagram, reconnaissant que l’engagement a perdu de son éclat après avoir remarqué une baisse de son taux d’engagement depuis son adhésion à la plateforme en 2012, en grande partie en raison du changement d’algorithme d’Instagram.

«Mon contenu s’est considérablement amélioré et je travaille maintenant en tant que photographe commercial grâce à ce que j’ai appris en photographiant pour Instagram. Ainsi, lorsque je photographie pour des clients, ils reçoivent en fait des photographies de qualité commerciale qui pourraient figurer sur un panneau d’affichage », déclare O’Neil.

«Il est donc intéressant que mon taux d’engagement ait baissé. Mais ce qui n’a pas encore été fait, c’est ma portée. »

adnewsau1909_article_026_01_06adnewsau1909_article_026_01_07
Auparavant, vous auriez dit obtenir un million J’aime sur un message, c’est génial, mais de façon réaliste, qu’est-ce que l’entreprise veut conduire?
Cal Guyll, maîtrise de MSL
La recherche confirme la tendance à la baisse de l’engagement sur les réseaux sociaux. Un par le cabinet de conseil en science des données Trust Insights examine les données des influenceurs de la mode de janvier à juin de cette année. Il montre une baisse de 18% de l’engagement moyen (principalement des likes), qui s’accélère en mai.

InfluencerDB, un autre cloud de marketing d’influence, montre que le taux d’engagement pour chaque catégorie d’influenceurs du secteur a diminué au cours de l’année écoulée, y compris dans le secteur des voyages, qui a généralement les taux d’engagement les plus élevés, enregistrant une baisse à 4,5% cette année par rapport à 8% l’année dernière.

Cette baisse pourrait également être le résultat de la fatigue des médias sociaux – la nouveauté de «s’engager» avec les autres en ligne s’estompe – même si nous apprécions toujours le contenu. Cela pourrait également être le signe d’une plate-forme encombrée qui diffuse un contenu moins pertinent, c’est-à-dire plus d’annonces, sur les flux.

Mais le co-PDG d’Hypetap, Detch Singh, affirme que la baisse de l’engagement ne sera pas secouer les influenceurs avec lesquels il travaille. «Nous avons toujours été rigoureusement axés sur les objectifs lorsque nous pensons aux métriques et aux données», dit-il.

«Si nous examinions la sensibilisation, alors oui, la portée a été la mesure clé. Si nous cherchions à changer le sentiment, nous examinerions l’engagement et la qualité / le contexte de cet engagement.

« Enfin, si nous voulions que le public agisse d’une manière ou d’une autre, nous essaierions de mesurer l’action. Nous aimons toujours être holistiques sur la façon dont nous pensons à chaque campagne et mesurons l’ensemble de l’entonnoir. « 

Les agences multimédias conviennent qu’il y a une compréhension plus sophistiquée des indicateurs de médias sociaux qu’elles devraient rechercher.

«Bien que nous ayons encore un long chemin à parcourir en termes de mesure de la valeur de la marque livrée au-delà des mesures standard d’engagement des médias et de la plate-forme, je pense que le surnom du ‘Far West’ historiquement appliqué au domaine a certainement été usé», Yash Murthy de Switched On dit.

«Les plates-formes et les créateurs / influenceurs doivent recevoir beaucoup de crédit en termes de aller au-delà des métriques de vanité sans signification pour permettre cette croissance de la confiance et de la sophistication.

« Bien qu’il ne soit pas sincère de suggérer qu’il n’y a pas d’opérateurs sommaires, mais les agences et les marques sont, pour la plupart, devenues beaucoup plus intelligentes dans l’évaluation des opportunités. »

La solitude des nouveaux influenceurs

Mardi dernier matin, mon premier e-mail non lu provenait d’Influencer Intelligence, une société d’analyse qui travaille avec des personnes qui souhaitent embaucher des influenceurs et des célébrités pour faire de la publicité.

«L’authenticité est l’attribut le plus critique pour créer une influence», indique le site Web de la société. L’e-mail concernait, comme le sont souvent les e-mails, un rapport récemment compilé sur l’activité de vente d’objets sur Instagram, qui promettait de «s’attaquer au concept de ce que signifie réellement l’authenticité aujourd’hui». La couverture du PDF était une image d’une belle femme blanche portant une ombre à paupières rose et mettant sa main à sa bouche – qui était, il va sans dire, ouverte.

À l’intérieur, j’ai trouvé des conseils sur la façon de déterminer l’authenticité d’un influenceur: demandez-lui des informations Google Analytics (pour prouver que ses chiffres «s’additionnent»), demandez les résultats quantitatifs des «campagnes de marque» précédentes, cartographiez les données démographiques de son audience – tout dit, trucs assez standard. Le rapport suggérait également l’utilisation de «métriques douces», ce qui implique apparemment en regardant le profil Instagram d’une personne et en prenant note du ton et de la fréquence de ses réponses à son «public», en jugeant à quel point le contenu est «naturel et authentique» et en décidant si l’influenceur «vit et respire vraiment ce qu’il présente».

C’est assez normal pour un rapport comme celui-ci, d’une entreprise comme celle-ci, mais le mot authenticité m’a spécifiquement fait monter le mur ces derniers temps, en particulier lorsqu’il s’applique aux gens. Comment demander si une personne «vit et respire» authentiquement ce qu’elle présente alors que ce qu’elle présente est elle-même? C’est littéralement ainsi que fonctionne un corps. Et en même temps, bien sûr, ce n’est pas le cas. C’est littéralement ainsi que fonctionne Instagram.

Par coïncidence, cet e-mail est arrivé le même jour qu’une nouvelle collection d’essais de l’écrivaine de mode et de culture new-yorkaise Natasha Stagg, sans manches: mode, image, médias, New York 2011-2019, de Semiotext (e). Stagg est surtout connue pour son travail de mode, en particulier en tant que rédactrice en chef chez V magazine, mais Sleeveless évoque également sa brève carrière technologique. Elle se souvient avoir travaillé sur une application qui pouvait «recommander toutes les façons de devenir belle», puis une application qui prenait des «selfies d’humeur».

Ce contexte rend Stagg particulièrement adapté pour analyser les choses étranges que nous avons faites aux femmes ces derniers temps au nom de leur donner plus de liberté – généralement, en réalité, simplement pour les rendre plus commercialisables. («Les femmes sont tellement à la mode en ce moment», dit une femme à une autre lors du lancement d’un magazine réservé aux femmes dans l’essai de Stagg intitulé «Naming Names», peut-être la meilleure et la plus sèche des lignes de frappe du livre.) Le plus intéressant pour moi, et peut-être à compilateurs de futurs rapports sur l’authenticité des influenceurs, Stagg se penche sur la question de savoir à quoi ressemble une «It Girl» moderne.

Pour la plupart, cette It Girl passe son temps seule et est vue sur Instagram. « Je souhaite juste … que je n’ai pas cette peur des très jeunes qui essaient de rester à la maison pour qu’un public plus large puisse apprécier un plus image construite », écrit Stagg dans le l’essai le plus tentaculaire du livre, «Out of State», adapté d’une chronique récurrente qu’elle a écrite pour le magazine Spike. «Je sais qu’ils doivent penser que ce que leurs camarades de classe physique du lycée pensent de leur corps physique n’aura jamais d’importance.

À une autre époque, la It Girl était quelqu’un dont la photo était prise par les spectateurs de toutes les bonnes fêtes. La nouvelle It Girl est quelqu’un qui prend des photos d’elle-même, à la maison. Elle passe son temps seule et est vue sur Instagram, où sa «direction artistique» est ce qui la rend désirable. Ces jeunes femmes, note Stagg, «sont, le plus souvent, des homebodies autoproclamées, voire antisociales. Aujourd’hui, une fille cool est amenée d’une séance photo sur iPhone dans une chambre à un studio professionnel. »

Elle a généralement des trucs intéressants, comme un miroir de fantaisie pour les photos des tenues du jour, un coussin Keanu Reeves, un t-shirt Myspace «vintage» ou des peintures qu’elle a elle-même réalisées. Elle écrit des légendes vagues et désaffectées – «la saison du thé», «vous savez comment c’est», un emoji au cœur noir. La fille la plus cool que je connaisse à l’université avec a «ennui» dans sa poignée Instagram et publie des selfies pris dans des miroirs en forme de vagues, avec un MacBook ou une seule rose rouge en arrière-plan; parfois elle fume une cigarette à l’intérieur, d’autres fois elle boit du vin dans un verre coupé, en roulant généralement les yeux. Elle a des cheveux incroyables. À propos de l’une de ces filles cool, nommée Amina Blue, Stagg observe: «Son image pourrait à la fois représenter l’acceptation particulière de sa génération par rapport à la surexposition et son inconfort aigu face à la pression de performer.»

En parcourant mon propre flux Instagram, il est facile de trouver des exemples de femmes qui brillent quand elles sont à l’intérieur parmi leurs affaires: la photographe de la Silicon Valley Michele Bisaillon a déclaré à Dazed en 2016 qu’elle possède des miroirs «40 ou 50», qu’elle utilise pour prendre visuellement photos déroutantes d’elle-même et de son chat dans des configurations élaborées, généralement dans la salle de bain. Molly Soda, l’une des premières grandes célébrités de Tumblr, utilise le pseudo Instagram @ bloatedandalone4ever1993 et ​​travaille sur le numérique l’art – y compris les selfies expérimentaux dans lesquels elle utilise délibérément Facetune de manière incorrecte ou modifie des flammes vertes sur le bas de son visage – principalement à la maison, où la distance entre prendre une image et jouer avec elle est plus courte.

«Je considère ma propre chambre comme un ensemble en quelque sorte», me dit Soda. «Nous acceptons tous et convenons tous que les photos de nos visages feront mieux qu’un paysage ou une nature morte ou une capture d’écran ou autre. C’est aussi quelque chose que nous pouvons contrôler un peu mieux que si vous emportez cela à l’extérieur et que vous faites face à un certain nombre de facteurs – comme l’éclairage, le fait que quelqu’un prenne la photo pour vous, le fait qu’il y ait d’autres personnes. « 

Elle a récemment publié une image d’elle-même en train de manger un fromage grillé seule dans sa chambre, avec une capture d’écran d’un YouTuber qu’elle ne connaissait pas, qui mangeait toute une assiette de fromages grillés. «Je vais manger mon repas avec quelqu’un d’autre en train de manger, mais nous ne nous connaissons pas», dit-elle. « C’était en quelque sorte mon idée, deux personnes qui ne se connaissaient pas, partageant ça repas ensemble, depuis leur chambre, seuls.

Ce sont des artistes qui jouent consciemment avec l’idée d’être célèbre sur Instagram. Mais toutes les filles cool parlent de rester à la maison de nos jours, et le look de 2019 était l’esthétique de la e-girl – Sailor Moon merch, cheveux roses, piercings au septum, maille pastel – que Rebecca Jennings de Vox a décrite en août comme la première tendance de la mode à développer. uniquement en ligne, photographié presque entièrement dans les chambres. Même la star de la plus grande émission de télé-réalité de Bravo a choisi de prendre ses photos de fiançailles sur son lit, au premier plan par une pile de ses affaires.

«Vous pouvez devenir vraiment célèbre sans quitter votre maison», m’a dit Stagg lors d’un appel téléphonique. «C’est cette façade. J’ai certainement rencontré de très jeunes gens qui se créent l’image d’être toujours à la maison alors qu’ils ne le sont vraiment pas. Il est préférable pour leur marque personnelle de donner l’impression qu’ils ont moins d’amis et qu’ils préfèrent être seuls. « 

Cela a du sens en tant que stratégie. Ces images, absentes d’amis, invitent à l’idée d’amis Internet, et attention, et donc «traction en tant que marque», comme le dit Stagg. Il y a des femmes importantes sur Instagram qui vous diront qu’elles ne publient pas de photos avec leurs petits amis parce que cela brise le fantasme de quelqu’un, ce qui est terrible pour leurs statistiques. La boucle est bouclée ou le cerveau de la galaxie est complet – vous ne pouvez être une denrée chaude que si les spectateurs peuvent s’imaginer comme le correctif de votre solitude, en réciprocité pour la façon dont ils utiliseront votre image pour essayer de combattre la leur. Personne n’aime une relation unilatérale.

En plus de cela, ces photos doivent être bonnes, et il est encore rare de voir quelqu’un prendre des dizaines de photos d’eux-mêmes d’affilée dans un lieu public. Bien que le mépris généralisé pour l’idée de base d’un selfie semble s’être calmé, nous avons convenu qu’il y avait quelque chose de tabou à avoir besoin de plus d’un essai. (Les ventes de la marque de lingerie Aerie d’American Eagle ont augmenté au cours des trois dernières années grâce à sa campagne anti-Photoshop #AerieREAL; une affiche sur un squelette de téléphone public l’appartement lit « #AerieREAL est la première photo contre la 100e. »)

Supercalculateurs: vers un méga ordinateur

Supercalculateur, faisant partie d’une catégorie de systèmes informatiques extrêmement efficaces. L’expression est généralement utilisée pour désigner les systèmes les plus simples et les plus performants disponibles à un moment donné. Ce type d’ordinateurs personnels est principalement utilisé pour des fonctions médicales et technologiques exigeant des calculs à une vitesse extrêmement élevée. Les applications fréquentes des superordinateurs intègrent des modèles numériques de criblage pour des phénomènes ou des modèles réels complexes, tels que le climat et la météo, le développement du cosmos, les armes et réacteurs nucléaires, les nouveaux produits chimiques (en particulier pour les médicaments sur ordonnance) et la cryptologie. Alors que le coût du calcul intensif a chuté dans les années 90, de plus en plus d’entreprises ont commencé à utiliser des supercalculateurs pour des études de marché et d’autres versions connectées à l’entreprise. Les supercalculateurs ont des fonctions distinctives spécifiques. Contrairement aux systèmes informatiques standard, ils ont souvent plus d’une unité centrale de traitement (unité centrale de traitement), qui contient des circuits d’interprétation des instructions de plan et d’exécution des fonctions arithmétiques et de raison dans les séries appropriées. L’utilisation d’un certain nombre de processeurs pour atteindre des prix de calcul substantiels est rendue nécessaire par les limitations physiques de la technologie moderne des circuits. Les signaux électroniques ne peuvent pas abandonner plus rapidement que la vitesse de l’éclairage, ce qui constitue donc une limite de vitesse de base pour la transmission des signaux et le changement de circuit. Cette restriction a presque été atteinte, en raison de la miniaturisation des parties du circuit, de la diminution extraordinaire de la taille des fils reliant les panneaux de circuits et de l’avancement des techniques de refroidissement (par exemple, dans différentes techniques de supercalculateur, les circuits du processeur et de l’espace mémoire sont immergés dans un fluide cryogénique. pour obtenir les conditions réduites où ils s’exécutent le plus rapidement). Un accès rapide aux informations et directions conservées est nécessaire pour garantir la vitesse de calcul très élevée des processeurs. Pour cette raison, la plupart des supercalculateurs ont une grande capacité de stockage, ainsi qu’une capacité de rétroaction / productivité très rapide. Continuez à une autre manifestation d’identification des supercalculateurs est leur utilisation de l’arithmétique vectorielle, c’est-à-dire qu’ils sont capables de travailler sur des paires de listes de quantités plutôt que sur de simples ensembles de nombres. À titre d’exemple, un supercalculateur moyen peut augmenter une liste des charges salariales à l’heure pour un petit groupe d’employés du fabricant par un résumé des heures qui s’est avéré utile par les membres de ce groupe pour produire une liste des dollars acquis par chaque personnel dans à peu près le même temps qu’il faut un ordinateur ordinaire pour calculer le montant total gagné par un seul employé. Les supercalculateurs ont été initialement utilisés dans des applications liées à la protection nationale, qui comprend la conception d’armes nucléaires et la cryptographie. Ces jours-ci, ils sont également constamment employés par les entreprises de l’aérospatiale, du pétrole et de l’automobile. De plus, les supercalculateurs ont découvert de larges logiciels dans des lieux concernant l’ingénierie ou l’étude médicale, comme, par exemple, dans les études du cadre des débris subatomiques et de l’origine et de la nature dans le monde. Les supercalculateurs sont devenus un outil essentiel dans la prévision des conditions météorologiques: les prévisions sont désormais basées sur des conceptions numériques. Au fur et à mesure que les dépenses des supercalculateurs diminuaient, leur utilisation distribuait à tous les jeux vidéo en ligne. En particulier, les cinquième à dixième supercalculateurs chinois les plus rapides en 2007 ont été la propriété d’une organisation avec des droits légaux sur Internet en Chine sur le jeu vidéo numérique électronique Arena of Warcraft, qui comptait parfois plus d’un millier d’individus jouissant collectivement dans le même jeu. monde. Malgré le fait que les premiers supercalculateurs aient été construits par diverses entreprises, un seul individu, Seymour Cray, a en fait décrit le produit presque depuis le début. Cray est devenu membre d’une organisation d’ordinateurs personnels connue sous le nom de Engineering Investigation Associates (Période) en 1951. Lorsque ERA a été repris par Remington Rand, Inc. (qui s’est ensuite jointe à d’autres organisations pour devenir Unisys Company), Cray est resté avec ERA. fondateur, William Norris, pour démarrer Manage Information Company (CDC) en 1957. À ce moment-là, la gamme de systèmes informatiques UNIVAC de Remington Rand et IBM se sont divisés la plupart de l’industrie pour les ordinateurs personnels d’entreprise, et, au lieu de contester leur vaste produit bâtiments de vente et d’assistance, CDC a cherché pour attraper le petit mais lucratif marché des ordinateurs technologiques rapides. Le CDC 1604 développé par Cray était l’un des principaux systèmes informatiques pour commuter les tuyaux à vide avec des transistors et était très populaire dans les laboratoires technologiques. IBM a répondu parce qu’ils construisaient son propre ordinateur médical, l’IBM 7030 – souvent appelé Extend-in 1961. Néanmoins, IBM, qui avait mis du temps à adopter le transistor, a identifié peu d’acheteurs pour son hybride tube-transistor, peu importe son rythme, et à court terme s’est retiré du domaine des supercalculateurs après avoir subi un dommage étonnant, pour le moment, de 20 000 $. En 1964, le CDC 6600 de Cray a remplacé Extend depuis l’ordinateur le plus rapide du monde; il pouvait exécuter 3 millions de procédures de dérive par seconde (FLOPS), ainsi que l’expression supercalculateur a été rapidement inventée pour l’illustrer. Cray a quitté CDC pour lancer Cray Study, Inc., en 1972, et a de nouveau progressé en 1989 pour former Cray Computer Company. À chaque fois qu’il progressait, son ancienne société continuait à produire des supercalculateurs basés sur ses modèles. Cray a été profondément impliqué dans chaque étape de la création des ordinateurs personnels développés par ses entreprises. En particulier, il était en fait un génie dans l’emballage du produit emballé dans les composants électroniques numériques qui composent un ordinateur. Grâce à une conception intelligente, il a réduit les impulsions de miles dû aux vacances, augmentant ainsi les appareils. Il s’est constamment efforcé de produire l’ordinateur personnel le plus rapide possible pour cette industrie technologique, généralement programmé dans le langage de programmation scientifique de son choix (FORTRAN), et a constamment amélioré les appareils pour des applications technologiques stressantes – par exemple, équations différentielles, manipulations matricielles, dynamique de l’eau, sismique évaluation et codage linéaire.

Défi Core Web Vitals

Le défi HTTP Archive correspondait à WordPress par rapport à Drupal, Joomla, Squarespace et Wix. Ces cinq systèmes ont été choisis en fonction de leur statut parmi les cinq systèmes de gestion de contenu les plus populaires. Vitaux Web de base Core Web Vitals se compose de trois mesures qui, ensemble, tentent de fournir un instantané de l’expérience utilisateur au niveau de la page. Les trois métriques Core Web Vitals mesurent le temps qu’un visiteur du site doit attendre jusqu’à ce qu’il puisse voir la page et commencer à l’utiliser. Les trois indicateurs Web vitaux de base La plus grande peinture de contenu (LCP) – Mesure le moment où le contenu principal a été téléchargé, visible et utile pour le visiteur du site. Délai de première entrée – Combien de temps un utilisateur doit attendre que le site réagisse lorsqu’il interagit avec un élément de page Web comme un lien. Décalage cumulatif de la disposition – Mesure la durée pendant laquelle le contenu cesse de se déplacer et est suffisamment stable pour pouvoir interagir avec succès.

Performances mobiles par rapport aux ordinateurs de bureau En général, les performances des ordinateurs de bureau avaient tendance à être meilleures que celles des appareils mobiles. Cela peut refléter la capacité de l’appareil à afficher une page Web et les différences de réseau Internet entre un ordinateur de bureau et un appareil mobile, où un appareil mobile peut avoir une expérience plus lente. Les scores essentiels du Web mobile sont plus importants que les scores des ordinateurs de bureau, car la majorité des visiteurs de pages Web accèdent aux pages Web avec un appareil mobile. C’est la raison pour laquelle Google utilisera en mai 2021 les scores mobiles Core Web Vital pour calculer un avantage de classement pour les sites qui ont un score Core Web Vitals de passage. Les scores de performance du bureau sont importants et ne doivent pas être ignorés. Mais ce sont les scores mobiles Core Web Vitals qui sont les plus critiques et qui comptent le plus. Scores expliqués Les scores sont basés sur les visites réelles du site par les utilisateurs sur le navigateur Google Chrome.

Ce sont des scores du monde réel. Les scores sont répartis entre les sites de bureau et mobiles. Comme expliqué ci-dessus, les sites pour ordinateurs de bureau ont obtenu des scores plus élevés, mais les scores mobiles importent le plus. Les scores sont exprimés en pourcentages de sites Web qui ont obtenu un score satisfaisant pour cette métrique particulière. Par exemple, un bon score pour la plus grande peinture de contenu est inférieur à 2,5 secondes. Donc, si un CMS obtient un score de 40%, cela signifie que 40% des sites Web ont un bon score. La plus grande peinture riche en contenu Largest Contentful Paint (LCP) est une métrique qui mesure le moment où une page Web est visible et utile pour un visiteur du site. Le CMS le mieux classé pour LCP est Drupal. Le CMS le moins bien classé est Wix. Alors que Drupal était le gagnant, le score LCP mobile Drupal n’était que de 47%. Cela signifie que seulement 47% des sites Web mobiles Drupal offraient aux visiteurs du site une bonne expérience utilisateur en termes de la plus grande peinture de contenu. Drupal est le gagnant, mais uniquement parce que les autres scores CMS étaient si mauvais. Ce sont les scores LCP Drupal – 47% Joomla – 38% WordPress – 25% Espace carré – 12% Wix – 9% Premier délai d’entrée Le premier délai d’entrée (FID) mesure le temps qu’il faut entre le moment où un utilisateur interagit avec un site et le moment où le site répond. Les scores pour le FID étaient très élevés. Squarespace a été le champion avec un score de 91% des sites ayant réussi le test FID. WordPress était juste derrière à la deuxième place tandis que Wix continuait de s’accrocher à la dernière place. Voici les classements: Espace carré – 91% WordPress – 88% Drupal – 76% Joomla – 71% Wix – 46% Décalage cumulatif de la disposition

Le décalage de mise en page cumulatif (CLS) mesure le déplacement des éléments de la page Web tels que les formulaires, les boutons, le texte et les images, etc. Une page Web qui bouge est une mauvaise expérience utilisateur car il est difficile de lire du texte qui glisse de haut en bas / de gauche à droite sur l’écran du téléphone. Le gagnant était à nouveau Drupal, cette fois avec 70% de sites Drupal offrant une expérience CLS de qualité. Wix est arrivé à la troisième place, battant de peu WordPress, mais pas de beaucoup. Voici les classements de CLS Drupal – 70% Joomla – 63% Wix – 59% WordPress – 57% Espace carré – 44% Alors que Drupal et Wix ont peut-être lieu de se réjouir, HTTP Archive leur a tous donné un geste du doigt. Ils ont observé que le score moyen du lot sur mobile était de 59%. Cela signifie que seulement 59% des sites Web utilisant l’un des cinq meilleurs CMS ont présenté une bonne expérience utilisateur pour Cumulative Layout Shift sur les appareils mobiles. Voici comment HTTP Archive l’a expliqué: Les 5 meilleurs CMS pourraient s’améliorer ici. Seules 50% des pages Web chargées par un des 5 meilleurs CMS ont une bonne «expérience CLS», ce chiffre passant à 59% sur mobile.

Dans tous les CMS, le score moyen des ordinateurs de bureau est de 59% et le score moyen des mobiles est de 67%. Cela nous montre que tous les CMS ont du travail à faire ici, mais les 5 meilleurs CMS en particulier doivent être améliorés. »

Gagnants et moins que gagnants Drupal a pris la première place à deux reprises et Wix a pris la tête en bas à deux reprises. WordPress et Joomla se sont affrontés quelque part au milieu, ni (relativement) ni (relativement) génial. Les cinq meilleurs CMS ont obtenu un score décent pour le premier délai d’entrée. Mais ils ont produit des scores pas si bons pour le plus grand contenu de peinture et le décalage de mise en page cumulatif. Ceci est important car Google fait de Core Web Vitals un facteur de classement. Même si ce facteur est un facteur de classement mineur, il s’agit toujours d’un facteur de classement, ce qui le rend important car c’est l’un des rares facteurs de classement où il est acceptable d’essayer ouvertement de l’influencer. Ce qui rend ce facteur de classement difficile, c’est que bon nombre des changements nécessaires pour obtenir un bon score dans Core Web Vitals impliquent des changements dans la façon dont le CMS est codé. Cela signifie que toute modification visant à améliorer les performances d’un site pour Core Web Vitals devrait idéalement être gérée par les développeurs du CMS et non par les utilisateurs du CMS.