Qualicities Agence Web

Agence Digitale et SEO à Troyes

S’accomoder de Google

Les principaux moteurs de recherche changent les résultats de leurs moteurs de recherche qui ajustent tout. Les moteurs de recherche élaguent des URL supplémentaires à partir des classements des moteurs de recherche qui ont un extrait en vedette. La SearchLiaison de Google est parvenue aux Tweets pour lui poser plusieurs problèmes concernant la nouvelle politique. Classements des moteurs de recherche d’extraits présentés Les moteurs de recherche mis à jour utilisés pour donner une URL de site Web à deux endroits dans les principales pages Web de résultats des moteurs de recherche (SERP) lorsque cette adresse Web est classée avec un extrait en vedette, également appelé placement absolument pas car il est évalué sur la position l’un des résultats habituels des moteurs de recherche. Cela a cessé d’être le cas. Yahoo n’affichera plus d’URL identiques pour les pages Web annoncées pour les extraits présentés. Ce processus de suppression des URL répliquées des résultats de la page de recherche contenant des extraits présentés est appelé déduplication. SearchLiaison de Google a publié les sept détails suivants sur la déduplication: Extraits en surbrillance identiques L’URL du site Web identique est appelée déduplication La déduplication est internationale La modification n’affectera pas les extraits en surbrillance vidéo Déduplication n’a pas d’incidence sur une variante d’extraits présentés similaire à un panneau de compréhension. Mais cela l’affectera plus tard cette semaine. La déduplication n’aura pas d’impact: Best Accounts; L’intrigue de l’URL du site Web dupliqué trouve à la page deux des résultats de la page de recherche semble être un bug de déduplication et ce n’est pas seulement une fonction ou un style. Adresses Web présentées; les extraits de code qui se trouvent également sur la page Web deux des pages Web des résultats des moteurs de recherche (SERP) pourraient voir leur détail supprimé. Vous ne verrez aucune alternance dans les évaluations des performances du système de recherche sur Internet (GSC). Rapports d’efficacité de Google Search Console En réponse à un problème, Google SearchLiaison a décrit que les enregistrements de performances ne changeraient pas en raison de la déduplication. Positionner absolument rien d’extraits présentés et un endroit organique et naturel étaient déjà comptés comme un emplacement évalué. Par conséquent, si un site perd la quantité naturelle; une position, mais conserve l’extrait en surbrillance, cette liste sera toujours mesurée comme un emplacement positionné principal.

L’importance de l’intelligence artificielle à Wall Street

Les connaissances synthétiques (IA) sont utiles pour gérer correctement un système existant, un système avec des risques bien compris. Il excelle dans les composants de conception et de gestion. Proposé des résultats adéquats et un indice fort, il pourrait reconnaître les bâtiments puissants et sérieux beaucoup plus robustement que n’importe quel individu et est considérablement supérieur dans les endroits qui nécessitent l’évaluation statistique de grands volumes d’informations. Il pourrait le faire sans intervention humaine. Nous pourrions laisser un dispositif d’IA à l’intérieur du contrôle quotidien de ce type de système, se réparer instantanément et étudier les erreurs et atteindre les objectifs des experts humains. De ce fait, la gestion des risques et les petites orientations prudentielles sont bien adaptées à l’IA. Les problèmes spécialisés sous-jacents sont clairement décrits, tout comme les objectifs à haut et à faible degré. Néanmoins, les mêmes caractéristiques particulières qui rendent l’IA si utile pour les petites autorités prudentielles respectives sont également la raison pour laquelle elle pourrait déstabiliser la méthode économique et stimuler les chances systémiques, comme discuté dans Danielsson et al. (2017). Dans les applications efficaces de haut niveau, les routines d’entraînement d’un moteur AI alimentent de minuscules éléments d’une difficulté complète, Gregory Adam où l’option mondiale n’est que des sous-options agrégées. Contrôler toutes les petites parties d’un système individuellement équivaut à manipuler le programme dans son intégralité. Le contrôle des risques et les restrictions microprudentielles sont des exemples de ce type de problème. La première étape de l’administration fortuite sera la modélisation du danger et c’est facile pour l’IA. Cela nécessite la gestion des taux du marché avec des méthodes statistiques assez basiques, fonction qui était auparavant bien en dessous. La tâche suivante consiste à combiner une compréhension détaillée de tous les rôles détenus par une institution bancaire avec des informations sur les personnes qui prennent une décision sur les rôles individuels, créant un moteur d’IA d’administration des dangers avec une expertise en matière de risques, de rôles et de capital humain. Fondamentalement, nous avons encore une approche à adopter à cette fin, la majorité des informations nécessaires se trouvant définitivement dans la structure informatique des banques, il n’y a pas d’obstacles technologiques impossibles au fur et à mesure. Il ne resterait plus qu’à informer le moteur des objectifs de haut niveau de la banque. La machine peut alors exécuter immédiatement des fonctions régulières d’administration des dangers et d’allocation des ressources, fixer des limites de place, suggérer qui est licencié et qui obtient des bonus supplémentaires, et recommander les cours de l’actif à acheter. Il en va de même pour la plupart des petites orientations prudentielles. Sans aucun doute, l’IA a créé un tout nouveau domaine appelé la technologie moderne de contrôle, ou «regtech». Il est loin de tout ce qui est difficile à traduire le livre de règles d’une agence de surveillance, maintenant pour de nombreuses parties en anglais simple, directement dans un moteur de raison informatisé officiel. Cela permet au pouvoir de confirmer ses règles de cohérence et offre aux institutions financières une interface utilisateur de programmation logicielle pour valider les méthodes par rapport aux règles. Dans le même temps, l’IA de supervision ainsi que l’IA de contrôle des dangers des banques peuvent interroger instantanément l’autre personne pour s’assurer de sa concordance. Cela signifie que toutes les informations produites par les banques sont correctement organisées et classées et traitées automatiquement par l’autorité de conformité et d’identification des risques. Il y a toujours une approche à prendre pour que l’IA de supervision / contrôle des risques devienne un fait utile, mais précisément ce qui est exposé est éminemment concevable en raison de la trajectoire de l’amélioration technologique. Le principal obstacle sera probablement d’ordre juridique, gouvernemental et social plutôt que technique.

La sécurité du digital dans la gestion

Comment se fait-il qu’à une époque de concentration sans précédent sur le leadership – une prolifération continue de livres, de messages, de programmes de niveau et d’efforts de formation à gros budget – des échecs de leadership spectaculaires prolifèrent aux plus hauts niveaux dans les lieux publics, privés, militaires et de croyance- institutions dépendantes ? Les gros titres sont remplis d’histoires de flottes d’avions immobilisés, de recours collectifs alléguant une indifférence insensible aux résultats pharmaceutiques, d’individus se présentant pour expliquer des années de harcèlement et d’abus de la part de gestionnaires auparavant exaltés, ainsi qu’une contagion de méfiance au sein des titans de la technologie dont les objets forment notre expérience quotidienne. Il est clair que cette simple exhortation – Écoutez ! Soyez un coach, pas un employeur ! Vaut des perspectives diverses! – est insuffisant. Il est tout aussi clair qu’à une époque où les emplois par cœur sont de plus en plus externalisés vers des appareils, et où l’avancement et le travail d’équipe sont devenus les clés de la survie de l’entreprise, le travail principal de chaque dirigeant serait de créer une atmosphère où les individus ressentent le sens d’un objectif commun, qui appartient, et d’un engagement qui permet à leurs meilleures suggestions de faire surface. Chacun des meilleurs livres d’entreprise de cette année sur l’expertise et la gestion est reconnu par des diagnostics et des informations étonnamment particuliers provenant des racines de notre propre situation de gestion. Parmi les meilleurs d’entre eux, Tomas Chamorro-Premuzic, professeur de psychologie des affaires à l’University University Central London et au Columbia College, soutient de manière convaincante que « l’épidémie de mauvais leadership » d’aujourd’hui est causée par un surplus d’hommes incompétents dont les imperfections leur permettent de manière perverse de s’élever. jusqu’au sommet. Amy C. Edmondson, professeure Novartis de gestion et d’administration au Harvard Business College, examine comment les pionniers produisent des cultures intrépides (ou effrayées) et démontre l’effet de l’inquiétude sur chaque aspect de la performance globale. Et Beth Comstock, ancienne directrice du marketing et de la publicité et vice-présidente de Basic Electric, décrit de manière frappante les obstacles rencontrés par les employés très motivés et engagés alors qu’ils essaient d’apporter leur meilleure réflexion et leurs meilleures idées, agissant sans crainte malgré les conséquences. La gestion inepte devient épidémique malgré la reconnaissance répandue selon laquelle les organisations ne peuvent s’en sortir que si elles conservent, participent et encouragent l’expertise. Comme l’information Chamorro-Premuzic, le mauvais leadership est la principale cause du turn-over et du désengagement des employés à l’échelle mondiale ; au sein du You.S. à vous seul, cela signifie une perte d’efficacité annuelle de 500 milliards de dollars américains. Chamorro-Premuzic écrit que la quantité extrêmement disproportionnée de rôles de gestion est détenue par des hommes, et demande ouvertement si cela peut être une préoccupation de causalité ou de connexion. Il plaide en faveur de votre ancien, dont ses recherches suggèrent qu’il est principalement le résultat de la difficulté des individus à détecter l’incompétence chez les hommes. Cette prémisse, ainsi que l’exhaustivité de l’étude qui la sous-tend, en font une lecture incontournable pour notre époque. Les recherches confirment que les femmes et les hommes assimilent souvent confiance et compétence simplement parce qu’ils supposent que ceux qui ne se soucient pas de leurs propres capacités et qui se considèrent comme destinés au succès devraient avoir de bonnes raisons de le faire. En fait, les personnes ineptes sont généralement moins précises dans l’évaluation de leurs propres compétences pour la simple raison pour laquelle elles n’ont pas les connaissances nécessaires pour savoir ce qu’elles ne savent pas. Par distinction, agence seo Douai les individus hautement qualifiés sont enclins à se remettre en question car leurs connaissances élèvent leur conscience de leurs limites. Non seulement les études montrent que les hommes semblent plus confiants que les femmes, mais le nombre d’hommes trop confiants est infiniment plus élevé. Et l’excès de confiance, ainsi que l’affirmation de soi qu’il engendre, peut être très utile lors de la poursuite ou de la recherche d’un poste de direction. Tout au long des entretiens, une idée personnelle inconditionnelle se convertit en rassurante, charismatique, magistrale et motivée – en d’autres termes, comme un innovateur. Par distinction, la compétence, dont Chamorro-Premuzic démontre qu’elle est en fait l’élément principal dans l’identification du succès d’un favori, a tendance à être balayée par la passion pour votre perspective éblouissante et personnelle. Bien sûr, l’excès de confiance doit vraiment être considéré comme un signe avant-coureur que quelqu’un deviendra un piètre innovateur – immunisé contre les commentaires, résistant à la modification et peu susceptible de consulter les autres lorsque vous prenez des décisions importantes.

Comprendre les moteurs de recherche

Utilisez ces ressources en ligne exceptionnelles pour obtenir l’équivalent d’un semestre d’introduction aux moteurs de recherche 101″ – sans avoir à retourner à l’école pour vos études.
Les moteurs de recherche Web sont une excroissance de la recherche universitaire sur la recherche d’informations. Les travaux sur les systèmes de recherche d’informations ont commencé à la fin des années 1960, bien avant l’avènement du Web dans les années 1990.
Lire l’histoire des systèmes de recherche d’informations et leur évolution au fil des décennies n’est pas seulement un exercice fascinant en soi, cela peut également vous aider à améliorer vos propres compétences en matière de recherche.
Pour un excellent aperçu, Qualicities consultez l’article du professeur Osmar R. Zaïane From Resource Discovery to Knowledge Discovery sur Internet. Il s’agit d’une histoire captivante de la recherche d’informations et discute de nombreux principes de base qui sous-tendent les opérations des moteurs de recherche d’aujourd’hui.
Bien qu’il s’agisse d’un rapport technique publié par l’Université Simon Fraser, le document est éminemment lisible. La première partie décrit les concepts de base de la recherche d’informations, y compris la numérisation de documents par force brute, les techniques conventionnelles de recherche de documents et les défis particuliers de l’indexation et de la recherche de documents hypertextes et de contenu multimédia sur le Web.
Ensuite, le Dr Zaïane propose une enquête sur la découverte de ressources sur Internet. Il s’agit d’un aperçu technique de la façon dont les moteurs de recherche et les annuaires sont créés et maintenus. Bien que le document ait été écrit avant l’ère Google, il offre toujours des informations solides pour vous aider à comprendre le fonctionnement de vos outils de recherche préférés.
La dernière section est consacrée à l’exploration de données ou à la découverte de connaissances sur Internet — ce qui doit être fait pour aider à améliorer les résultats de recherche.
Si vous voulez vraiment approfondir vos connaissances sur la technologie de recherche, rendez-vous sur le site Web de la School of Information Management and Systems de l’Université de Californie à Berkeley. La plupart des cours dispensés sur le campus sont pris en charge par des sites Web et contiennent de nombreux liens vers des notes de cours, des présentations, des articles et d’autres supports de cours.
En particulier, consultez les pages du SIMS 202 : Organisation et récupération de l’information. C’est vraiment les moteurs de recherche 101 », à partir de concepts de base tels que Qu’est-ce que l’information ? De nombreux supports de cours sont disponibles en ligne.
Vous pouvez trouver de nombreux autres cours similaires sur d’autres sites Web universitaires. Utilisez la recherche universitaire de Google, avec des mots-clés tels que les moteurs de recherche « ou la recherche d’informations » pour les trouver.

Les moteurs de recherche et l’automatisation

Une fois que le plaisir d’apprendre à voler s’est estompé, la plupart des pilotes expérimentés confient les commandes au pilote automatique, en particulier pour les itinéraires fréquemment parcourus. Si vous répétez la même requête au fil du temps, vous pouvez à la fois améliorer vos résultats et simplifier la recherche en tirant parti des moteurs de recherche qui proposent le pilote automatique.
Connus sous le nom d’alertes de recherche », ces services sont différents de nombreux services d’alerte, car ils vous donnent un grand contrôle sur vos requêtes. La plupart des services d’alerte reposent sur de simples requêtes de mots clés ou sur la reconnaissance des modifications physiques apportées aux pages Web. Les services d’alerte de Northern Light et Profusion, d’autre part, vous permettent de créer des alertes personnalisées plus puissantes.
Les alertes de recherche de Northern Light vous envoient un e-mail chaque fois que la base de données de Northern Light a été mise à jour avec de nouveaux documents correspondant à vos termes de recherche. Il existe deux façons de créer une alerte. Le plus simple est simplement de sauvegarder toute recherche que vous effectuez sur Northern Light en tant qu’alerte, en utilisant le lien fourni en haut de chaque page de résultats.
Cependant, vous obtiendrez probablement de meilleurs résultats et réduisez considérablement le nombre de fausses gouttes si vous vous connectez au service d’alertes de recherche. Cela vous donne plus de contrôle sur votre requête, vous permettant de créer une alerte qui exécute une recherche simple, une recherche avancée, une recherche d’entreprise, une recherche par investissement ou une recherche d’actualités. Vos champs de recherche sont légèrement différents pour chaque type de recherche, il est donc important de choisir un type de recherche avant de saisir vos mots-clés.
Pour tous les types de recherche autres que la recherche simple, vous pouvez également limiter votre recherche à des catégories spécifiques et faire trier les résultats soit par pertinence, soit par date et heure. Vous pouvez également limiter votre requête aux mots d’un titre de document, d’un nom de publication ou d’une URL. Ces limites peuvent être extrêmement utiles pour créer des recherches très étroites et ciblées, garantissant des résultats très pertinents.
Une fois que vous avez créé votre recherche, vous pouvez prévisualiser les résultats. S’ils ne sont pas satisfaisants, vous pouvez modifier vos paramètres jusqu’à ce que vous obteniez exactement ce que vous voulez. C’est tout ce qu’on peut en dire.
Lorsque la base de données de Northern Light a été mise à jour avec des sites Web ou des articles de la collection spéciale qui correspondent à vos termes de recherche, vous recevrez un e-mail contenant une URL. Pour afficher vos résultats mis à jour, Qualicities cliquez sur ce lien. Northern Light souligne qu’il est nécessaire de cliquer sur l’URL envoyée dans l’e-mail pour voir tous les sites qui ont été ajoutés depuis la dernière fois que vous avez cliqué sur la mise à jour de l’alerte de recherche.
Pour suivre les nouveaux sites Web, les actualités ou d’autres événements en cours, les alertes de recherche Northern Light valent vraiment le détour. Vous devez avoir un compte chez Northern Light, mais l’inscription est gratuite.
Le métamoteur de recherche Profusion vous permet de créer une alerte de recherche unique qui est exécutée chaque jour sur jusqu’à dix moteurs de recherche. Bien que Profusion ne vous offre pas la gamme complète d’options de limitation que Northern Light propose, vous pouvez néanmoins affiner votre recherche en utilisant le formulaire de recherche avancée.
Ce formulaire vous permet d’appliquer des opérateurs booléens limités, de spécifier le nombre total de résultats et le nombre par source et, de manière unique, d’effectuer une vérification de lien sur les résultats pour s’assurer qu’aucun des liens n’est rompu. Il vous permet également de choisir les moteurs de recherche, y compris une option pour n’utiliser que ceux que Profusion détermine être les trois meilleurs ou les trois les plus rapides pour votre requête.
Une fois la recherche lancée, vous disposez de deux options pour enregistrer les alertes. Vous pouvez enregistrer l’intégralité de la requête en cliquant sur le lien « Définir l’alerte de recherche » en haut de la page de résultats. Vous pouvez également surveiller les pages individuelles affichées dans votre liste de résultats en cliquant sur le lien « Définir l’alerte de page » à côté du titre de la page.

Les virus et autres attaques

La diffusion délibérée d’infections d’ordinateurs personnels nuisibles est un autre type de cybercriminalité. En fait, il s’agissait de l’activité criminelle de prédilection du premier individu à être condamné aux États-Unis dans le cadre de l’action contre les escroqueries et les abus informatiques de 1986. Le 2 novembre 1988, un étudiant en sciences informatiques de l’université Cornell nommé Robert Morris a lancé une demande « ver » sur le Web depuis le MIT (étant un visiteur autour du campus, il espérait rester anonyme). Le ver était un programme informatique personnel expérimental qui s’auto-propage et se duplique et tire parti des imperfections de certains protocoles de courrier électronique. En raison d’une erreur dans son codage, au lieu de simplement fournir des copies de lui-même avec d’autres ordinateurs, ce logiciel a continué à se dupliquer sur chaque programme contaminé, remplissant toute la mémoire informatique disponible. Avant qu’une réparation ne soit trouvée, le ver avait introduit quelque 6 000 systèmes informatiques (un dixième d’Internet) jusqu’à un certain point. Bien que le ver de Morris ait coûté du temps et d’énormes sommes d’argent à réparer, le grand événement a eu quelques effets industriels, car votre Web n’était pas encore devenu un incontournable des questions financières. Que le père de Morris était le meilleur de la sécurité informatique pour votre You.S. La National Security Company a mené l’effort pour faire face au grand événement davantage comme un drame œdipien de haute technologie que comme une préfiguration des points à venir. Depuis lors, des infections de plus en plus nocives ont été préparées par des anarchistes et des marginaux venus d’endroits aussi divers que l’Amérique, la Bulgarie, le Pakistan et les Philippines. Évaluez le ver Morris en utilisant les occasions de la semaine du 7 février 2000, lorsque « mafiaboy », un pirate informatique canadien âgé de 15 ans, a orchestré un certain nombre d’attaques par déni de service (DoS) contre plusieurs sites Web de commerce électronique, y compris Amazon.com et craigslist et ebay.com. Ces agressions ont utilisé des systèmes informatiques à plusieurs endroits pour submerger les ordinateurs des fournisseurs et fermer leurs sites World Wide Web (WWW) pour légitimer les visiteurs commerciaux. Les agressions ont paralysé le commerce Web, selon le FBI estimant que les sites Web touchés ont subi des problèmes de 1,7 milliard de dollars. En 1988, Internet n’intervenait que dans les modes de vie des experts et des universitaires ; en 2000, il est devenu important pour le fonctionnement de la You.S. gouvernement et économie. La cybercriminalité vécue est passée d’un problème d’actes répréhensibles individuels à un point de sécurité à l’échelle nationale. Les attaques DoS distribuées sont vraiment un type unique de piratage. Un illégal sale une gamme de systèmes informatiques avec des programmes informatiques qui peuvent être activés par un autre consommateur d’ordinateurs. Ces applications sont connues sous le nom de chevaux de Troie car elles pénètrent dans les systèmes informatiques des utilisateurs inconscients comme quelque chose de bénin, comme une photo ou un document connecté à un courrier électronique. Dans un délai prédéterminé, ce programme cheval de Troie commence à envoyer des informations à un site prédéterminé. Si suffisamment d’ordinateurs ont été compromis, il est probable que le site sélectionné puisse être bloqué de manière si efficace que peu ou pas de trafic légitime puisse l’atteindre. Un aperçu essentiel fourni par ces événements a été qu’un grand nombre de logiciels sont vulnérables, ce qui permet même à un pirate informatique non qualifié d’abandonner un nombre énorme de machines. Même si les entreprises de logiciels proposent régulièrement des correctifs pour corriger les vulnérabilités des logiciels, tous les utilisateurs ne mettent pas en œuvre les mises à jour et leurs ordinateurs restent vulnérables aux criminels cherchant à lancer des attaques DoS. En 2003, le fournisseur Web PSINet European countries a relié un serveur non protégé au Web. En vingt-quatre heures, l’hôte avait été attaqué 467 fois, et après trois semaines, plus de 600 attaques avaient été enregistrées. Seuls des régimes de protection rigoureux peuvent protéger un tel environnement. Indépendamment des affirmations concernant la mère nature pacifique de l’Internet, il est préférable de le considérer comme un exemple contemporain de la tradition Wild Western des États-Unis utilisant le shérif loin.

Du microblogging à Twitter

Youtube est certainement un service de microblogging en ligne permettant de diffuser des messages courts parmi des groupes de destinataires via un ordinateur ou un téléphone portable. Twitter inclut des aspects des sites Web de médias sociaux, comme Myspace et Facebook, avec des systèmes de messagerie immédiate pour créer des systèmes de clients capables de se connecter pendant la journée avec de brèves informations, ou « tweets ». Un utilisateur tape un tweet via le clavier d’un téléphone portable ou un ordinateur et le transmet au serveur de Twitter, qui le transmet à une liste d’autres utilisateurs (appelés abonnés) qui se sont inscrits pour recevoir les tweets de l’expéditeur par message pour leur téléphone portable ou par message à leurs ordinateurs. De plus, les utilisateurs peuvent choisir de surveiller des sujets particuliers, créant une sorte de dialogue et poussant le nombre de fans dans une offre Youtube donnée à des centaines de milliers. Les tweets peuvent porter sur n’importe quel sujet, allant des blagues aux informations en passant par les plans de dîner, mais ils ne peuvent pas dépasser 140 chiffres. Twitter a été construit à l’aide de Ruby on Rails, un cadre de programme Internet spécialisé pour le langage de codage informatique Ruby. Son interface permet une adaptation et une intégration ouvertes avec d’autres services Internet. Le service a été créé en 2006 par Evan Williams et Biz Stone, qui ont chacun travaillé dans des moteurs de recherche avant de partir pour produire l’entreprise de podcasting Odeo. Williams, qui avait auparavant créé l’outil de création Web populaire Blogwriter, a commencé à expérimenter en utilisant l’un des projets parallèles d’Odeo – un service de messages brefs (SMS) alors connu sous le nom de Twttr. En visite à long terme pour le produit, Williams a racheté Odeo et a lancé Apparent Corp. pour aider à le construire. L’ingénieur Jack Dorsey est devenu membre de l’équipe de direction, ainsi que la version complète de Twitter a fait ses débuts lors de la conférence musicale Southern by Southwest à Austin, dans l’État du Texas, en mars 2007. Ce mois-ci, Youtube, Inc., a été développé comme un personne morale, en raison d’une injection de capital d’entreprise. Dès le début, Twitter était principalement un SMS totalement gratuit comportant un élément de médias sociaux. En tant que tel, il manquait le flux de revenus clair qu’une personne pouvait trouver sur des sites qui extrayaient des revenus de bannières publicitaires ou de frais d’adhésion. Le nombre de visiteurs uniques du site ayant augmenté d’environ 1 300 % en 2009, il était évident que Twitter était plus qu’un intérêt du marché. Cependant, au cours d’une année qui a vu le mastodonte des réseaux sociaux Facebook ou Twitter réaliser des bénéfices pour la première fois, il n’était pas clair si Twitter pouvait atteindre l’indépendance financière des investisseurs en capital d’entreprise. En avril 2010, Twitter a dévoilé les « Tweets sponsorisés », des publicités qui apparaîtront dans les résultats de recherche, comme sa principale source de revenus. Les racines de Twitter dans les médias sociaux étaient évidentes en avril 2009, lorsque l’acteur Ashton Kutcher a fait surface en tant que vainqueur d’un concours avec CNN pour devenir le premier Twitterer à rassembler plus d’un million de fans. Alors que « l’observation en ligne » des célébrités est restée un attrait substantiel pour les services, les entreprises ont rapidement commencé à envoyer des tweets sur les promotions et les occasions, et les stratégies gouvernementales ont identifié la valeur de Youtube comme outil de communication. Lors de l’élection présidentielle américaine de 2008, Barack Obama a dominé son adversaire, John McCain, dans le domaine des réseaux sociaux, rassemblant près de 4 fois plus d’amis Myspace et plus de 20 fois plus de fans sur Youtube. Ce développement a pratiquement assuré que les candidats à long terme viendraient avec une présence sur les réseaux sociaux dans le cadre de leurs stratégies médiatiques. La partie peut-être la plus remarquable du développement de Twitter, cependant, a été son utilisation accrue en tant qu’appareil pour les journalistes amateurs. Youtube est passé de quelque chose qui était considéré comme un passe-temps oisif pour une planète de plus en plus branchée en une source d’information de pointe qui transcendait les frontières gouvernementales. Le 15 janvier 2009, un tweet de Janis Krums, voyageur de ferry de banlieue, a révélé l’histoire de l’arrivée d’eau efficace sur le vol 1549 d’Airways Airline sur le Hudson Stream à New York. Une image de téléphone d’appareil photo numérique rapidement capturée des passagers débarquant de l’avion submergé à cinquante pour cent a été soumise à Twitpic.com, un service d’hébergement de photos pour les utilisateurs de Youtube ; le site s’est rapidement écrasé alors que des milliers de twittos tentaient de le voir en même temps.

Le marketing et l’automatisation

« Sur le marché néo-zélandais, l’automatisation du marketing est encore une discipline relativement nouvelle pour certaines organisations », explique Nathalie Morris, directrice générale de la société d’automatisation du marketing néo-zélandaise Ubiquity.

«Mais au cours des deux dernières années, nous avons constaté un intérêt et une compréhension beaucoup plus importants des possibilités de l’automatisation du marketing. Je pense que 2017 sera l’année où nous verrons vraiment sa croissance parmi les entreprises ici désireuses d’agir et de commencer à prendre l’automatisation du marketing plus au sérieux », a-t-elle déclaré.

En tant qu’outil à la fois pour les entreprises de taille moyenne et les grandes entreprises, l’automatisation du marketing, dans ses termes les plus simples, fait référence aux logiciels et aux technologies qui automatisent certaines actions marketing. Et comme il rend le marketing pour les entreprises à la fois plus efficace en termes de portée et de valeur, les avantages du marketing automatisé sont exponentiels.

« Ce que nous constatons avec l’automatisation, c’est le passage d’une approche de type campagne à une approche de type « toujours » qui est plus efficace car il envoie des messages aux gens au bon moment pour eux », explique Morris.

« Cela permet également aux spécialistes du marketing d’être plus efficaces car plutôt que d’être sur ce mode constant d’exécution de campagnes, ils peuvent mettre en place un programme automatisé qui s’exécute pour eux et leur permet de passer au programme suivant. »

Mais ce n’est pas aussi simple que d’avoir une solution unique pour chaque entreprise, Google explique Morris. Alors que certaines entreprises disposent de bases de données riches en informations sur leurs clients, d’autres ne parviennent pas à tirer le meilleur parti des potentialités du marketing basé sur les données, finissant souvent par envoyer le même message à tout le monde.

« Je pense que ce que nous constatons, c’est une compréhension croissante au sein du marché que lorsque vous n’utilisez pas les données pour parler aux gens de manière plus personnalisée et pertinente, vous passez à côté », déclare Morris.

« Les consommateurs commencent à s’attendre à ce que les communications qu’ils reçoivent soient adaptées et personnalisées autour d’eux, les spécialistes du marketing doivent donc utiliser ces données pour personnaliser et cibler leurs messages.

Souvent, les entreprises qui se lancent dans l’automatisation du marketing ne disposent pas d’un ensemble de données complet, c’est pourquoi Morris préconise une approche plus progressive qui leur permet de le développer au fil du temps.

« Ils n’ont peut-être pas nécessairement toutes les données dont ils ont besoin, mais ils peuvent prévoir de générer plus d’informations », dit-elle.

« Par exemple, la plate-forme d’automatisation du marketing Ubiquity Engage peut suivre le contenu d’un e-mail avec lequel une personne s’engage et l’utiliser pour mieux comprendre ses intérêts, ou mettre des codes de suivi dans les sites Web qui relient le comportement des personnes au sein de ces sites Web à cette base de données marketing centrale . « 

« Cela nous permet de commencer à construire une image très riche du client grâce aux informations de base que nous avons à son sujet et à examiner son comportement à travers une gamme de points de contact différents. »

Pour tous ceux qui travaillent dans l’environnement marketing actuel, l’un des plus grands défis consiste à gérer le flux constant de changement chez les consommateurs comportement et technologie. En raison de l’état continu des flux auxquels les spécialistes du marketing doivent faire face, Morris souligne le besoin d’un partenaire d’automatisation du marketing qui vous soutiendra dans les moments difficiles. Et avec l’un des principaux points de différence d’Ubiquity étant sa gamme complète de services de stratégie, d’exécution et d’optimisation, leur équipe d’experts locaux comprend comment utiliser les données et obtenir les résultats.

« Les spécialistes du marketing doivent être sûrs que les partenaires avec lesquels ils travaillent les aident réellement à naviguer dans ce changement et ce que cela signifie », explique Morris. « Le marketing devient de plus en plus complexe et les spécialistes du marketing doivent rapidement comprendre un éventail beaucoup plus large de canaux et de technologies. Parce qu’il y a beaucoup de gens qui ne l’ont jamais fait auparavant, il est important que des prestataires comme Ubiquity aident les clients à comprendre cette image plus large.

Alors que les clients recherchent une approche plus personnelle de leurs interactions quotidiennes avec les marques, les entreprises ont adopté une approche plus centrée sur le client dans leur façon de travailler. Et avec l’automatisation du marketing, l’époque des communications génériques est révolue depuis longtemps, car les entreprises cherchent à garder les choses personnelles.

Pour le franchiseur de la clinique Caci, FAB Group, l’approfondissement de la relation client est l’un de ses principaux objectifs, et comme l’explique Emily Stevenson, responsable marketing et communication, l’automatisation du marketing a offert au groupe FAB l’opportunité d’utiliser leurs données de manière significative et pertinente.

« Lorsque nous avons commencé à utiliser l’automatisation du marketing, c’était pour des tâches simples telles que des e-mails d’anniversaire automatisés et des messages » vous nous avez manqué « pour réengager les clients inactifs », dit-elle.

« Mais maintenant, nous utilisons la plate-forme pour effectuer toutes sortes d’activités, telles que l’envoi de rappels de rendez-vous, l’offre de matériel pertinent basé sur le comportement d’achat et la notification aux clients des paniers abandonnés. »

Stevenson croit les e-mails personnalisés ont eu un effet tangible sur les communications marketing de FAB Group, et Engage, la plate-forme d’automatisation du marketing basée sur le cloud d’Ubiquity, leur permet de développer des communications spécifiques en fonction de leurs objectifs.

« Les taux d’ouverture de nos e-mails automatisés sont jusqu’à 40 % plus élevés que les autres e-mails, ce qui montre que ces éléments de communication sont plus pertinents et plus précieux pour nos clients », dit-elle.

« Parce que nous pouvons segmenter en fonction des données démographiques, des préférences des clients, du comportement d’achat et même de leur engagement avec les éléments de communication précédents, nous pouvons fournir un élément de communication avec un contenu dynamique personnalisé qui change en fonction de la personne que nous ciblons. »

L’efficacité de l’agilité du digital

Dans le monde des affaires en évolution rapide d’aujourd’hui, il est essentiel pour les entreprises et les entreprises de réagir et de s’adapter plus rapidement que jamais. Le changement électronique offre des possibilités en optimisant l’utilisation des ressources, en innovant les capacités et en créant des relations durables avec les clients. Tout au long du parcours des organisations dans la transformation numérique, la vitesse est l’un des facteurs les plus importants à considérer. Au cours de cet entretien, nous avons apprécié la conversation avec le professeur Stijn Viaene de la Vlerick Business School, qui nous a parlé de l’importance de la transformation agile et de la manière dont elle entraîne et génère le changement électronique. Q La vitesse de mise à l’échelle est un sujet important en ce moment, en particulier pour les organisations tout au long de leur quête de transformation numérique. Pouvez-vous nous dire exactement de quoi il s’agit ? Est-il délivré à toutes les entreprises ? L’importance de l’alignement, de la coordination et de l’ajout de tâches n’est pas nouvelle. Elle revient au cœur et à l’âme de la création du travail des entreprises. Ce qui a cependant évolué, c’est bien le fond vers lequel nous nous organisons : les turbulences, catalysées par la digitalisation. Une vitesse est ce qui est exigé des organisations qui veulent s’épanouir dans un environnement turbulent, comme l’économie numérique. Cela implique de la rapidité, de la flexibilité et surtout de la réactivité aux changements. Aujourd’hui, les gens associent presque automatiquement la vitesse au développement d’équipes multidisciplinaires et personnalisées. Ces groupes sont motivés pour déterminer de manière autonome, sans avoir à escalader constamment la sélection. Les modèles accessibles au public pour appliquer un travail d’équipe agile, tels que Scrum ou Kanban, sont devenus de plus en plus populaires. Maintenant, si vous n’avez qu’un groupe particulier, qui n’est pas trop grand, composé d’individus hautement qualifiés, ainsi qu’un groupe avec une excellente dynamique de groupe, alors ces configurations agiles peuvent certainement faire des miracles. C’est ce qui fait la prospérité des start-ups numériques. D’un autre côté, que se passe-t-il si vous avez 10, 20, 80 ou plus de ces groupes agiles qui exploitent simultanément toutes les initiatives ? Avec toutes sortes de dépendances entre les équipes ainsi que les emplois, certains groupes peuvent avoir besoin du travail d’autres personnes comme intrants. Les projets de divers groupes peuvent fonctionner avec une ressource de données typique. Les groupes peuvent se battre pour les mêmes ressources et expertises rares. Et, que se passe-t-il s’il y a beaucoup d’héritage autour, avec lequel les équipes doivent travailler d’une manière ou d’une autre ? Cette situation se termine facilement par le chaos, en particulier lorsque la modification doit arriver rapidement ou extrêmement rapidement comme à l’ère numérique. Vous devrez découvrir des méthodes pour aligner les différents objectifs des groupes et des tâches, synchroniser l’allocation des sources et réussir à intégrer les résultats sans compromettre l’agilité des groupes et c’est certainement un défi de taille. Le défi est appelé vitesse de mise à l’échelle ou vitesse de production au niveau. Au risque de trop simplifier les choses, vous pourriez dire que dans le passé, nous nous sommes préparés à l’accent, au prix, à l’efficacité et à la stabilité. Aujourd’hui, nous visons néanmoins la concentration, mais en nous concentrant sur la production de vitesse (vitesse de mise sur le marché), de flexibilité et de choix. Q Vous avez peut-être souligné le besoin d’aligner, de coordonner et d’ajouter du travail comme essentiel pour créer de l’agilité au niveau de la fonction. Ces éléments sont essentiels pour atteindre les objectifs et l’orientation des organisations. Au fil des ans, quelles modifications avez-vous observées en termes d’objectifs et de buts de diverses organisations ? R L’importance de l’alignement, de la coordination et de l’ajout de travaux n’est pas nouvelle. C’est un retour au cœur et à l’âme de la création d’entreprise. Mais ce qui a évolué, c’est le contexte dans lequel nous nous organisons : des turbulences, catalysées par la digitalisation. Au risque de trop simplifier les choses, on pourrait dire qu’auparavant, nous nous préparions à privilégier, le coût, l’efficacité et la stabilité. De nos jours, nous avons néanmoins tourné pour nous concentrer, mais en mettant l’accent sur la création de vitesse (speed-to-market), de flexibilité et d’option. Cela ne signifie pas nécessairement que le premier groupe d’objectifs est moins essentiel en période de turbulences, bien au contraire, je dirais personnellement, mais l’obstacle a beaucoup changé pour combiner ces objectifs précédents avec les derniers. Cela nous amène instantanément au paradoxe lié à la mise à l’échelle de l’agilité : présenter une polyvalence rapide en plus de l’équilibre simultanément. C’est ce qui rend si difficile de le faire correctement. Nous devrons déterminer efficacement où l’équilibre compte et où il peut être détendu. Néanmoins, une chose est claire : à la vitesse à laquelle les choses évoluent aujourd’hui, nous ne sommes plus capables de trouver le bon équilibre entre polyvalence et stabilité en nous appuyant sur nos capacités humaines. Nous devrons travailler de manière créative avec les technologies électroniques pour nous aider à trouver et à mettre en place le bon équilibre entre stabilité et flexibilité. Q Bien que vous l’ayez dit, la stabilité et la flexibilité sont deux éléments majeurs qui doivent être accomplis via la vitesse de mise à l’échelle. Comment les pionniers peuvent-ils avoir la capacité d’utiliser l’idée d’agilité à grande échelle dans leurs organisations particulières ? R Il existe plusieurs cadres d’exercices facilement disponibles pour faire évoluer la vitesse vers le diplôme de commerce. Tous sont relativement récents. Par exemple, il y a « SAFe » qui signifie « Scaled Nimble Structure », mais il y a aussi « LeSS » – pour « Large Scale Scrum », Father qui est « Disciplined Agile Delivery » et plus encore. Chacun de ces cadres possède ses propres origines et sa propre gamme. Une option, dont beaucoup de gens ont peut-être entendu parler, est la « conception Spotify », connue sous le nom de service de streaming de chansons numériques, Spotify organise pour l’agilité au niveau. Il n’y a pas si longtemps, il a connu une augmentation significative lorsque l’équipe bancaire néerlandaise ING a déclaré qu’elle imiterait le modèle pour accélérer sa transformation électronique. Le modèle de Spotify est un excellent exemple pour présenter une organisation qui recherche ou peut-être une « fonction minimale viable et une conception organisationnelle ».

La mesure du succès sur Instagram

Le bruit créé après qu’Instagram a révélé que l’Australie était l’un des sept pays à tester la suppression du nombre de likes a montré le niveau de malentendu autour de ce que les marques recherchent réellement lorsqu’elles regardent la métrique des influenceurs.

Les goûts sont déjà devenus un outil de mesure important, à la fois parce que cela ne signifie pas nécessairement des résultats commerciaux et parce que les gens s’engagent simplement moins sur les médias sociaux.

«Auparavant, vous auriez dit qu’obtenir un million de mentions J’aime sur un message était formidable, mais de façon réaliste, qu’est-ce que l’entreprise souhaite générer?» dit Guyll de MSL Fluency.

« Désormais, les marques doivent se demander si elles veulent des mentions J’aime sur une publication, inciter les gens à se rendre sur le site Web de la marque pour faire des achats ou faire tomber les gens amoureux de la marque.

S’adressant à Taryn Williams de The Right Fit, Bernice Averion, spécialiste du marketing de croissance chez Koala.com, déclare qu’elle ne tient pas compte du taux d’engagement lors de la recherche d’influenceurs avec lesquels s’associer pour développer l’activité de matelas.

« Le taux d’engagement n’a pas vraiment d’importance pour moi, il s’agit vraiment de savoir quel est leur véritable public », déclare Averion. « Donc, s’ils ont 100 000 abonnés, mais que seulement 50% de cette audience se trouve en Australie, je ne veux vraiment payer que 50%. »

Reach cherche à revenir sous les projecteurs, avec l’influenceuse gourmande Sally O’Neil, qui compte plus de 90000 abonnés sur Instagram, reconnaissant que l’engagement a perdu de son éclat après avoir remarqué une baisse de son taux d’engagement depuis son adhésion à la plateforme en 2012, en grande partie en raison du changement d’algorithme d’Instagram.

«Mon contenu s’est considérablement amélioré et je travaille maintenant en tant que photographe commercial grâce à ce que j’ai appris en photographiant pour Instagram. Ainsi, lorsque je photographie pour des clients, ils reçoivent en fait des photographies de qualité commerciale qui pourraient figurer sur un panneau d’affichage », déclare O’Neil.

«Il est donc intéressant que mon taux d’engagement ait baissé. Mais ce qui n’a pas encore été fait, c’est ma portée. »

adnewsau1909_article_026_01_06adnewsau1909_article_026_01_07
Auparavant, vous auriez dit obtenir un million J’aime sur un message, c’est génial, mais de façon réaliste, qu’est-ce que l’entreprise veut conduire?
Cal Guyll, maîtrise de MSL
La recherche confirme la tendance à la baisse de l’engagement sur les réseaux sociaux. Un par le cabinet de conseil en science des données Trust Insights examine les données des influenceurs de la mode de janvier à juin de cette année. Il montre une baisse de 18% de l’engagement moyen (principalement des likes), qui s’accélère en mai.

InfluencerDB, un autre cloud de marketing d’influence, montre que le taux d’engagement pour chaque catégorie d’influenceurs du secteur a diminué au cours de l’année écoulée, y compris dans le secteur des voyages, qui a généralement les taux d’engagement les plus élevés, enregistrant une baisse à 4,5% cette année par rapport à 8% l’année dernière.

Cette baisse pourrait également être le résultat de la fatigue des médias sociaux – la nouveauté de «s’engager» avec les autres en ligne s’estompe – même si nous apprécions toujours le contenu. Cela pourrait également être le signe d’une plate-forme encombrée qui diffuse un contenu moins pertinent, c’est-à-dire plus d’annonces, sur les flux.

Mais le co-PDG d’Hypetap, Detch Singh, affirme que la baisse de l’engagement ne sera pas secouer les influenceurs avec lesquels il travaille. «Nous avons toujours été rigoureusement axés sur les objectifs lorsque nous pensons aux métriques et aux données», dit-il.

«Si nous examinions la sensibilisation, alors oui, la portée a été la mesure clé. Si nous cherchions à changer le sentiment, nous examinerions l’engagement et la qualité / le contexte de cet engagement.

« Enfin, si nous voulions que le public agisse d’une manière ou d’une autre, nous essaierions de mesurer l’action. Nous aimons toujours être holistiques sur la façon dont nous pensons à chaque campagne et mesurons l’ensemble de l’entonnoir. « 

Les agences multimédias conviennent qu’il y a une compréhension plus sophistiquée des indicateurs de médias sociaux qu’elles devraient rechercher.

«Bien que nous ayons encore un long chemin à parcourir en termes de mesure de la valeur de la marque livrée au-delà des mesures standard d’engagement des médias et de la plate-forme, je pense que le surnom du ‘Far West’ historiquement appliqué au domaine a certainement été usé», Yash Murthy de Switched On dit.

«Les plates-formes et les créateurs / influenceurs doivent recevoir beaucoup de crédit en termes de aller au-delà des métriques de vanité sans signification pour permettre cette croissance de la confiance et de la sophistication.

« Bien qu’il ne soit pas sincère de suggérer qu’il n’y a pas d’opérateurs sommaires, mais les agences et les marques sont, pour la plupart, devenues beaucoup plus intelligentes dans l’évaluation des opportunités. »