Qualicities Agence Web

Agence Digitale et SEO à Troyes

04 Lire

Des stratégies pour les moteurs de recherche

Un rapport spécial de la conférence Search Engine Strategies 2001, 12-14 août, San Jose CA.
L’analyse des liens est l’une des techniques les plus importantes et les plus mal comprises utilisées par les moteurs de recherche pour déterminer la pertinence et un élément clé d’une optimisation réussie des moteurs de recherche. Des représentants de Google et de Teoma expliquent comment c’est fait.
Si vous avez passé du temps au cours des dernières années à étudier le marketing des moteurs de recherche, vous connaissez probablement l’engouement pour les liens qui règne dans l’industrie. Tout le monde, des experts aux nouveaux dans le domaine, utilise des termes tels que la popularité des liens « et le classement des pages » et il semble que tous les forums de discussion et sites Web connexes aient des sections entières consacrées à la création de liens. En tant que fondement du Web, les liens ont toujours été importants, mais les liens eux-mêmes n’ont pas beaucoup changé depuis le jour où ils ont été créés, alors pourquoi tout cet intérêt renouvelé ?
La raison en est que les principaux moteurs de recherche utilisent de plus en plus les liens pour améliorer la pertinence de leurs résultats de recherche. Cependant, le monde des liens et leur utilisation par les moteurs de recherche peuvent rapidement devenir déroutants. Pour aider à trier les éléments les plus importants de la liaison, la session «Regard sur les liens» a eu lieu lors de la conférence Search Engine Strategies à San Jose, en Californie. Les moteurs de recherche qui utilisent le plus les liens, Google et Teoma, ont tous deux envoyé des représentants pour expliquer pourquoi les liens sont importants pour leurs moteurs et comment les utiliser au mieux sur un site Web.
Daniel Dulitz, directeur de la technologie chez Google, a commencé par énoncer l’un des points les plus importants de la session : à mesure que les index des moteurs de recherche s’agrandissent, il devient presque impossible de déterminer la pertinence d’une page Web en se basant uniquement sur des facteurs sur la page ( texte de la page, métas, titres, etc.). C’est ce fait, combiné au fait que la plupart des facteurs sur la page ne sont pas fiables en raison d’abus, qui a incité Google à commencer à examiner la structure des liens du Web pour aider à déterminer la pertinence d’une page par rapport à une requête.
Selon Dulitz, lorsqu’ils déterminent la pertinence d’une page Web pour une recherche, ils utilisent leur système PageRank pour tenter de modéliser le comportement des internautes » en analysant la manière dont les pages sont liées les unes aux autres. Il a expliqué que Google considère l’interconnexion des pages Web comme un moyen de tirer parti de la structure démocratique du Web », avec des liens équivalents à des votes.
Google traite essentiellement chaque lien d’un site à un autre comme un vote pour le site recevant le lien (popularité du lien), mais chaque vote n’est pas égal. Dulitz a utilisé un diagramme simple pour montrer que chaque page d’un site n’a qu’un vote à donner, donc plus il y a de liens vers différents sites sur la même page, moins chacun reçoit de vote. Il a également déclaré que les liens de sites de meilleure qualité ont plus de poids que ceux de sites de moindre qualité (par exemple, sites avec des liens cachés, impliqués dans des fermes de liens, pas de liens entrants, etc.). De plus, Google analyse non seulement qui crée un lien vers qui, mais analyse également le texte dans et autour des liens pour aider à déterminer la pertinence des pages recevant les liens.
Dulitz a ensuite fourni quelques conseils utiles pour les webmasters. Lorsqu’ils créent des liens vers leurs sites, ils doivent :
Obtenez des sites similaires à lier à leur site
Attirez des liens naturellement en créant un contenu de haute qualité
Évitez les fermes de liens et autres tactiques trompeuses
Lorsqu’ils créent des liens vers d’autres sites, les webmasters doivent :
Lien vers des sites similaires ou liés au leur
Lien vers la page la plus pertinente pour leurs visiteurs (par exemple, ne vous contentez pas de créer un lien vers la page d’accueil)
Évitez les liens vers des sites sans rapport
Il a ensuite fourni quelques conseils généraux supplémentaires sur les liens :
Assurez-vous que tous les liens fonctionnent sur tous les principaux navigateurs (par exemple, pas de JavaScript)
Utilisez un texte descriptif dans les liens chaque fois que cela est possible (par exemple, pas de liens Cliquez ici)
Assurez-vous que tous les liens sont faciles à trouver et aident les utilisateurs à naviguer facilement sur le site
Éviter les liens cachés
Paul Gardi, vice-président de la recherche pour Ask Jeeves/Teoma, a commencé par des commentaires similaires à ceux de Dulitz. Gardi a déclaré qu’en raison de la convergence statistique »et de la facilité avec laquelle ils peuvent être abusés, ni l’analyse du texte de la page ni la popularité des liens standard ne peuvent être utilisées pour déterminer la pertinence d’une page Web. Plus précisément, il a mentionné que la popularité des liens standard est inefficace car elle n’aide pas à déterminer le sujet ou le contexte du site, et les sites plus grands et plus populaires ont tendance à submerger les sites plus petits qui peuvent en réalité être plus pertinents pour une recherche.
Pour lutter contre ces problèmes, Teoma considère le Web comme une entité mondiale contenant de nombreuses communautés de sites Web thématiques. Ils étudient ces communautés de sujets et la manière dont elles sont liées entre elles et entre elles pour déterminer non seulement la popularité de leurs liens, mais également le sujet et le contexte des sites concernés. Selon Gardi, Teoma est capable de le faire en utilisant sa méthode unique de classement des sites. Il a expliqué qu’au lieu de s’appuyer sur la popularité générale des liens pour déterminer les résultats, leur moteur tente d’utiliser une popularité spécifique à un sujet pour localiser les sites les plus populaires au sein d’une communauté de sujets spécifique. Cela se fait en analysant d’abord le Web dans son ensemble pour identifier les communautés de sujets.
Teoma utilise ensuite la popularité des liens au sein de ces communautés pour déterminer quels sites sont les «autorités» sur le sujet de la requête et ce sont ces sites qui sont renvoyés comme résultats d’une recherche. En outre, il a mentionné qu’en analysant les liens des sites d’autorité, leur technologie est également capable de localiser des pages de ressources de haute qualité (pages de liens) liées à la requête d’origine. Chacun de ces composants est ensuite mis à disposition sur leur page de résultats de recherche comme suit : Résultats » sont les autorités, Affiner » sont les communautés de sujets connexes et Ressources » sont les pages de liens connexes.
À la fin de sa présentation, Gardi a offert quelques conseils de base pour améliorer le classement d’une page Web chez Teoma. Il a dit:
Optimisez vos pages
Éviter le camouflage
Évitez les liens vers de mauvais sites
Dans l’ensemble, la session a été bien reçue et très instructive, surtout pour les novices en la matière. Étant donné que la plupart des principaux moteurs de recherche utilisent désormais une méthode d’analyse des liens, toute personne ayant un intérêt direct à être correctement indexée par les moteurs de recherche devrait envisager d’y participer à l’avenir.

Comment marche un moteur de recherche

Internet est en grande partie inorganisé et les informations sur ses pages Web sont de qualité très variable, y compris des informations industrielles, des répertoires nationaux, des sélections de références de recherche et des sélections de documents personnels. Les moteurs de recherche comme Google essaient de déterminer les pages fiables en les pondérant ou en les classant en fonction de la quantité d’autres pages Web qui y font référence, en identifiant les « autorités » auxquelles font référence de nombreuses pages et en identifiant les « hubs » qui font référence à de nombreuses pages. Ces techniques peuvent fonctionner correctement, mais l’utilisateur doit néanmoins faire preuve d’habileté pour sélectionner des combinaisons appropriées de termes de recherche. Une recherche d’institution financière peut renvoyer des centaines de millions de pages (« hits »), dont de nombreuses provenant de banques industrielles. La recherche de river bank peut néanmoins revenir à plus de 10 millions de pages Web, dont beaucoup proviennent d’institutions bancaires avec river dans le titre. Seules d’autres améliorations telles que les berges et les riverains réduisent le nombre de visites à des milliers et des milliers de pages, de loin les plus notables qui concernent les rivières ainsi que leurs berges. Les moteurs de recherche utilisent des robots, des applications qui explorent le Web en utilisant des hyperliens hypertextes de page en page Web, enregistrant tout sur une page (appelée mise en cache) ou des parties d’une page Web, ainsi qu’une méthode exclusive d’étiquetage du contenu à être capable de développer des indices pondérés. Les sites Web se composent souvent de leurs propres balises sur les pages Web, qui ne sont généralement vues que par les robots d’exploration, afin d’améliorer la correspondance entre les requêtes ainsi que leurs sites Web. Les abus de ce marquage volontaire peuvent fausser les résultats des moteurs de recherche s’ils ne sont pas pris en compte lors de la réalisation des moteurs de recherche. De même, un utilisateur doit savoir si un moteur de recherche spécifique met aux enchères en ligne des mots-clés et des expressions, en particulier si les sites Web qui ont payé pour un positionnement préférentiel ne sont généralement pas indiqués séparément. Même les moteurs de recherche de base les plus importants comme Google, tels que Google, Yahoo!, Baidu et Bing, ne peuvent pas suivre la prolifération des pages Web, et chacun laisse simplement de grandes portions découvertes. lien de site Web, un lien entre des informations associées par des contacts numériques afin de permettre à un utilisateur un accès rapide entre les deux. L’hypertexte, un lien de site Web concernant un contenu textuel, est une fonction de certains programmes informatiques qui permettent à un individu de médias numériques de choisir n’importe quoi parmi le contenu textuel et de recevoir des informations supplémentaires concernant ce mot, comme une définition ou des recommandations associées au sein du contenu textuel. Dans l’article « baleine » d’une encyclopédie électronique, par exemple, un hyperlien hypertexte dans la référence à la baleine bleu clair permet à votre lecteur d’accéder à l’article sur cette variété en cliquant simplement sur le texte « baleine bleue » avec une souris d’ordinateur . Le lien hypertexte est généralement indiqué en présentant le terme ou la phrase pertinente dans un contenu textuel ayant une police ou une couleur différente. Les backlinks peuvent également connecter du contenu textuel à des photos, des sons ou des séquences de dessins animés. Les hyperliens entre différentes parties d’un document ou entre divers documents créent une structure de branchement ou de réseau qui prendra en charge des sauts immédiats et sans intermédiaire vers des éléments de détails associés. La structure arborescente des hyperliens détaille les différences en utilisant le cadre linéaire d’une encyclopédie imprimée ou d’un thésaurus, par exemple, dont les éléments ne sont physiquement accessibles qu’au moyen d’une série statique et linéaire d’éléments en achat alphabétique. Les backlinks sont, en quelque sorte, des recommandations croisées qui offrent un accès immédiat pour se concentrer sur des détails. Ce type d’hyperliens est plus avantageux lorsqu’il est appliqué à une grande variété de détails qui sont organisés en de nombreux éléments associés de plus petite taille, donc lorsqu’un individu ne demande qu’une petite partie d’informations à la fois. Les hyperliens ont déjà été utilisés avec le plus de succès par les sites Web sur Internet. Pour accueillir cette masse d’informations sans précédent, Google a construit 11 centres d’information dans le monde entier, chacun d’eux contenant plusieurs centaines de milliers de serveurs (essentiellement des ordinateurs multiprocesseurs et des disques durs montés dans des étagères exclusivement construites). Les ordinateurs interconnectés de Google sont probablement plusieurs millions. Le cœur de la procédure de Google, néanmoins, est constitué de trois morceaux propriétaires de code informatique personnel : les moteurs de recherche Document Program (GFS), Bigtable et MapReduce. GFS gère le stockage des informations en « morceaux » sur un certain nombre de machines ; Bigtable est le programme de source de données de l’entreprise ; et MapReduce est utilisé par les moteurs de recherche pour créer des informations de niveau supérieur (par exemple, constituer un index de pages Web contenant le texte « Chicago », « théâtre » et « participatif »).

Plus de puissance technologique pour les villes

Les zones métropolitaines intelligentes sont rendues possibles par des connexions Internet à haut débit. Ils s’appuient sur de grandes informations, des algorithmes et l’Internet des points pour mieux servir leurs communautés de plus en plus diversifiées. Par exemple, les zones métropolitaines avisées pourraient utiliser les informations recueillies à partir des détecteurs Wi-Fi pour calculer le nombre d’autocars qui doivent être en circulation à une heure donnée de la journée afin de réduire les temps d’attente. L’anticipation est le fait que l’expansion de l’utilisation de la technologie permettra aux villes intelligentes d’adapter instantanément les services aux besoins et aux choix changeants des résidents. Néanmoins, l’accès à haut débit inégal dans de nombreux quartiers du You.S. a conduit à craindre que les efforts de changement axés sur les technologies, comme les initiatives de ville intelligente, ne renforcent les inégalités sociales existantes. En tant que chercheur qui étudie les technologies et les politiques de l’industrie publique, je pense que cela fera de l’accès croissant au haut débit dans les quartiers mal desservis un élément essentiel de la nouvelle loi sur les infrastructures ainsi qu’une étape essentielle vers la réalisation de l’objectif du président Biden d’utiliser cette législation sur les installations pour faire avancer les valeur. Il y a 2 raisons derrière cela. Internet haut débit à des vitesses haut débit Tout d’abord, les installations numériques qui permettent la sélection et l’évaluation des données courantes, comme l’Internet haut débit, ont tendance à sous-performer dans les communautés beaucoup moins aisées. Par exemple, une étude de Microsoft réalisée en 2019 indique que 162,8 millions de personnes aux États-Unis n’avaient pas été en mesure d’accéder au Web à des vitesses haut débit. Un fait contrasté de votre FCC est que beaucoup moins d’Américains ont eu affaire à des connexions en ligne lentes plus qu’à la même période. Mais leur nombre s’est concentré sur l’utilisation de contacts à large bande, au lieu d’utiliser des connexions en ligne qui fonctionnent réellement à des vitesses à large bande élevées. L’augmentation de l’accès au Web à haut débit dans les communautés mal desservies peut contribuer à garantir que les données utilisées pour informer la prestation de services publics généraux judicieuses expliquent mieux les exigences et les choix d’un échantillon beaucoup plus complet de résidents et d’utilisateurs de services, et pas seulement occupants de lieux riches. A cet effet, délivrer à ces quartiers un véritable web à grande vitesse peut éviter qu’ils ne soient exclus des procédures de notification de la prestation de service public. Gérer passer à l’action Une autre cause de l’augmentation de la valeur marchande de l’accès au Web à haut débit dans les villes avisées tient au fait que les régions métropolitaines avisées s’appuient sur des techniques de solutions interdépendantes qui fonctionnent simultanément. Prenons, par exemple, les transports publics, le contrôle de la pollution atmosphérique et la santé publique en général. Les modifications des schémas de circulation doivent être bien équilibrées avec les objectifs de pollution de l’air, qui doivent prendre en considération les mesures de performance de santé publique. Malheureusement, les autorités municipales ont souvent du mal à coordonner les services et, lorsqu’elles le font, des conflits de services peuvent se produire. Par exemple, des interventions visant à améliorer temporairement le flux de visiteurs dans une zone peuvent augmenter les degrés de pollution de l’air au-delà d’un niveau satisfaisant dans une autre région, améliorant ainsi le service pour quelques-uns et l’aggravant pour d’autres. Dans le cadre des villes intelligentes, les efforts de synchronisation des services nécessitent la disponibilité de connexions Internet à haut débit et d’un réseau de détecteurs. Cependant, l’accessibilité aux connexions en ligne à large bande qui fonctionnent à haute vitesse est particulièrement limitée dans les communautés minoritaires. Le résultat de cette disparité est que les quartiers de couleur sont plus enclins à supporter le poids des conflits de service. Par exemple, les détecteurs de haute qualité de l’air peuvent être rares dans les quartiers de couleur en raison de la pénurie d’Internet à haute vitesse, ce qui rend difficile de savoir quand les efforts de réacheminement du trafic déclenchent des niveaux de pollution atmosphérique dépassant les niveaux appropriés. L’élargissement de l’accès à l’Internet haut débit est une étape vitale pour arrêter ce type d’effet secondaire. Les villes sages et la dépendance croissante des gouvernements à l’égard de la technologie promettent d’améliorer les performances du gouvernement, mais elles peuvent également renforcer les conceptions actuelles des inégalités. Avec une énorme quantité de dépenses d’infrastructure à l’horizon, la direction de Biden a le potentiel de mettre en évidence des causes importantes d’inégalité systémique, en particulier en élargissant l’accès aux connexions haut débit qui fonctionnent à haut débit dans les quartiers mal desservis.

S’accomoder de Google

Les principaux moteurs de recherche changent les résultats de leurs moteurs de recherche qui ajustent tout. Les moteurs de recherche élaguent des URL supplémentaires à partir des classements des moteurs de recherche qui ont un extrait en vedette. La SearchLiaison de Google est parvenue aux Tweets pour lui poser plusieurs problèmes concernant la nouvelle politique. Classements des moteurs de recherche d’extraits présentés Les moteurs de recherche mis à jour utilisés pour donner une URL de site Web à deux endroits dans les principales pages Web de résultats des moteurs de recherche (SERP) lorsque cette adresse Web est classée avec un extrait en vedette, également appelé placement absolument pas car il est évalué sur la position l’un des résultats habituels des moteurs de recherche. Cela a cessé d’être le cas. Yahoo n’affichera plus d’URL identiques pour les pages Web annoncées pour les extraits présentés. Ce processus de suppression des URL répliquées des résultats de la page de recherche contenant des extraits présentés est appelé déduplication. SearchLiaison de Google a publié les sept détails suivants sur la déduplication: Extraits en surbrillance identiques L’URL du site Web identique est appelée déduplication La déduplication est internationale La modification n’affectera pas les extraits en surbrillance vidéo Déduplication n’a pas d’incidence sur une variante d’extraits présentés similaire à un panneau de compréhension. Mais cela l’affectera plus tard cette semaine. La déduplication n’aura pas d’impact: Best Accounts; L’intrigue de l’URL du site Web dupliqué trouve à la page deux des résultats de la page de recherche semble être un bug de déduplication et ce n’est pas seulement une fonction ou un style. Adresses Web présentées; les extraits de code qui se trouvent également sur la page Web deux des pages Web des résultats des moteurs de recherche (SERP) pourraient voir leur détail supprimé. Vous ne verrez aucune alternance dans les évaluations des performances du système de recherche sur Internet (GSC). Rapports d’efficacité de Google Search Console En réponse à un problème, Google SearchLiaison a décrit que les enregistrements de performances ne changeraient pas en raison de la déduplication. Positionner absolument rien d’extraits présentés et un endroit organique et naturel étaient déjà comptés comme un emplacement évalué. Par conséquent, si un site perd la quantité naturelle; une position, mais conserve l’extrait en surbrillance, cette liste sera toujours mesurée comme un emplacement positionné principal.

L’importance de l’intelligence artificielle à Wall Street

Les connaissances synthétiques (IA) sont utiles pour gérer correctement un système existant, un système avec des risques bien compris. Il excelle dans les composants de conception et de gestion. Proposé des résultats adéquats et un indice fort, il pourrait reconnaître les bâtiments puissants et sérieux beaucoup plus robustement que n’importe quel individu et est considérablement supérieur dans les endroits qui nécessitent l’évaluation statistique de grands volumes d’informations. Il pourrait le faire sans intervention humaine. Nous pourrions laisser un dispositif d’IA à l’intérieur du contrôle quotidien de ce type de système, se réparer instantanément et étudier les erreurs et atteindre les objectifs des experts humains. De ce fait, la gestion des risques et les petites orientations prudentielles sont bien adaptées à l’IA. Les problèmes spécialisés sous-jacents sont clairement décrits, tout comme les objectifs à haut et à faible degré. Néanmoins, les mêmes caractéristiques particulières qui rendent l’IA si utile pour les petites autorités prudentielles respectives sont également la raison pour laquelle elle pourrait déstabiliser la méthode économique et stimuler les chances systémiques, comme discuté dans Danielsson et al. (2017). Dans les applications efficaces de haut niveau, les routines d’entraînement d’un moteur AI alimentent de minuscules éléments d’une difficulté complète, Gregory Adam où l’option mondiale n’est que des sous-options agrégées. Contrôler toutes les petites parties d’un système individuellement équivaut à manipuler le programme dans son intégralité. Le contrôle des risques et les restrictions microprudentielles sont des exemples de ce type de problème. La première étape de l’administration fortuite sera la modélisation du danger et c’est facile pour l’IA. Cela nécessite la gestion des taux du marché avec des méthodes statistiques assez basiques, fonction qui était auparavant bien en dessous. La tâche suivante consiste à combiner une compréhension détaillée de tous les rôles détenus par une institution bancaire avec des informations sur les personnes qui prennent une décision sur les rôles individuels, créant un moteur d’IA d’administration des dangers avec une expertise en matière de risques, de rôles et de capital humain. Fondamentalement, nous avons encore une approche à adopter à cette fin, la majorité des informations nécessaires se trouvant définitivement dans la structure informatique des banques, il n’y a pas d’obstacles technologiques impossibles au fur et à mesure. Il ne resterait plus qu’à informer le moteur des objectifs de haut niveau de la banque. La machine peut alors exécuter immédiatement des fonctions régulières d’administration des dangers et d’allocation des ressources, fixer des limites de place, suggérer qui est licencié et qui obtient des bonus supplémentaires, et recommander les cours de l’actif à acheter. Il en va de même pour la plupart des petites orientations prudentielles. Sans aucun doute, l’IA a créé un tout nouveau domaine appelé la technologie moderne de contrôle, ou «regtech». Il est loin de tout ce qui est difficile à traduire le livre de règles d’une agence de surveillance, maintenant pour de nombreuses parties en anglais simple, directement dans un moteur de raison informatisé officiel. Cela permet au pouvoir de confirmer ses règles de cohérence et offre aux institutions financières une interface utilisateur de programmation logicielle pour valider les méthodes par rapport aux règles. Dans le même temps, l’IA de supervision ainsi que l’IA de contrôle des dangers des banques peuvent interroger instantanément l’autre personne pour s’assurer de sa concordance. Cela signifie que toutes les informations produites par les banques sont correctement organisées et classées et traitées automatiquement par l’autorité de conformité et d’identification des risques. Il y a toujours une approche à prendre pour que l’IA de supervision / contrôle des risques devienne un fait utile, mais précisément ce qui est exposé est éminemment concevable en raison de la trajectoire de l’amélioration technologique. Le principal obstacle sera probablement d’ordre juridique, gouvernemental et social plutôt que technique.

La sécurité du digital dans la gestion

Comment se fait-il qu’à une époque de concentration sans précédent sur le leadership – une prolifération continue de livres, de messages, de programmes de niveau et d’efforts de formation à gros budget – des échecs de leadership spectaculaires prolifèrent aux plus hauts niveaux dans les lieux publics, privés, militaires et de croyance- institutions dépendantes ? Les gros titres sont remplis d’histoires de flottes d’avions immobilisés, de recours collectifs alléguant une indifférence insensible aux résultats pharmaceutiques, d’individus se présentant pour expliquer des années de harcèlement et d’abus de la part de gestionnaires auparavant exaltés, ainsi qu’une contagion de méfiance au sein des titans de la technologie dont les objets forment notre expérience quotidienne. Il est clair que cette simple exhortation – Écoutez ! Soyez un coach, pas un employeur ! Vaut des perspectives diverses! – est insuffisant. Il est tout aussi clair qu’à une époque où les emplois par cœur sont de plus en plus externalisés vers des appareils, et où l’avancement et le travail d’équipe sont devenus les clés de la survie de l’entreprise, le travail principal de chaque dirigeant serait de créer une atmosphère où les individus ressentent le sens d’un objectif commun, qui appartient, et d’un engagement qui permet à leurs meilleures suggestions de faire surface. Chacun des meilleurs livres d’entreprise de cette année sur l’expertise et la gestion est reconnu par des diagnostics et des informations étonnamment particuliers provenant des racines de notre propre situation de gestion. Parmi les meilleurs d’entre eux, Tomas Chamorro-Premuzic, professeur de psychologie des affaires à l’University University Central London et au Columbia College, soutient de manière convaincante que « l’épidémie de mauvais leadership » d’aujourd’hui est causée par un surplus d’hommes incompétents dont les imperfections leur permettent de manière perverse de s’élever. jusqu’au sommet. Amy C. Edmondson, professeure Novartis de gestion et d’administration au Harvard Business College, examine comment les pionniers produisent des cultures intrépides (ou effrayées) et démontre l’effet de l’inquiétude sur chaque aspect de la performance globale. Et Beth Comstock, ancienne directrice du marketing et de la publicité et vice-présidente de Basic Electric, décrit de manière frappante les obstacles rencontrés par les employés très motivés et engagés alors qu’ils essaient d’apporter leur meilleure réflexion et leurs meilleures idées, agissant sans crainte malgré les conséquences. La gestion inepte devient épidémique malgré la reconnaissance répandue selon laquelle les organisations ne peuvent s’en sortir que si elles conservent, participent et encouragent l’expertise. Comme l’information Chamorro-Premuzic, le mauvais leadership est la principale cause du turn-over et du désengagement des employés à l’échelle mondiale ; au sein du You.S. à vous seul, cela signifie une perte d’efficacité annuelle de 500 milliards de dollars américains. Chamorro-Premuzic écrit que la quantité extrêmement disproportionnée de rôles de gestion est détenue par des hommes, et demande ouvertement si cela peut être une préoccupation de causalité ou de connexion. Il plaide en faveur de votre ancien, dont ses recherches suggèrent qu’il est principalement le résultat de la difficulté des individus à détecter l’incompétence chez les hommes. Cette prémisse, ainsi que l’exhaustivité de l’étude qui la sous-tend, en font une lecture incontournable pour notre époque. Les recherches confirment que les femmes et les hommes assimilent souvent confiance et compétence simplement parce qu’ils supposent que ceux qui ne se soucient pas de leurs propres capacités et qui se considèrent comme destinés au succès devraient avoir de bonnes raisons de le faire. En fait, les personnes ineptes sont généralement moins précises dans l’évaluation de leurs propres compétences pour la simple raison pour laquelle elles n’ont pas les connaissances nécessaires pour savoir ce qu’elles ne savent pas. Par distinction, agence seo Douai les individus hautement qualifiés sont enclins à se remettre en question car leurs connaissances élèvent leur conscience de leurs limites. Non seulement les études montrent que les hommes semblent plus confiants que les femmes, mais le nombre d’hommes trop confiants est infiniment plus élevé. Et l’excès de confiance, ainsi que l’affirmation de soi qu’il engendre, peut être très utile lors de la poursuite ou de la recherche d’un poste de direction. Tout au long des entretiens, une idée personnelle inconditionnelle se convertit en rassurante, charismatique, magistrale et motivée – en d’autres termes, comme un innovateur. Par distinction, la compétence, dont Chamorro-Premuzic démontre qu’elle est en fait l’élément principal dans l’identification du succès d’un favori, a tendance à être balayée par la passion pour votre perspective éblouissante et personnelle. Bien sûr, l’excès de confiance doit vraiment être considéré comme un signe avant-coureur que quelqu’un deviendra un piètre innovateur – immunisé contre les commentaires, résistant à la modification et peu susceptible de consulter les autres lorsque vous prenez des décisions importantes.

Comprendre les moteurs de recherche

Utilisez ces ressources en ligne exceptionnelles pour obtenir l’équivalent d’un semestre d’introduction aux moteurs de recherche 101″ – sans avoir à retourner à l’école pour vos études.
Les moteurs de recherche Web sont une excroissance de la recherche universitaire sur la recherche d’informations. Les travaux sur les systèmes de recherche d’informations ont commencé à la fin des années 1960, bien avant l’avènement du Web dans les années 1990.
Lire l’histoire des systèmes de recherche d’informations et leur évolution au fil des décennies n’est pas seulement un exercice fascinant en soi, cela peut également vous aider à améliorer vos propres compétences en matière de recherche.
Pour un excellent aperçu, Qualicities consultez l’article du professeur Osmar R. Zaïane From Resource Discovery to Knowledge Discovery sur Internet. Il s’agit d’une histoire captivante de la recherche d’informations et discute de nombreux principes de base qui sous-tendent les opérations des moteurs de recherche d’aujourd’hui.
Bien qu’il s’agisse d’un rapport technique publié par l’Université Simon Fraser, le document est éminemment lisible. La première partie décrit les concepts de base de la recherche d’informations, y compris la numérisation de documents par force brute, les techniques conventionnelles de recherche de documents et les défis particuliers de l’indexation et de la recherche de documents hypertextes et de contenu multimédia sur le Web.
Ensuite, le Dr Zaïane propose une enquête sur la découverte de ressources sur Internet. Il s’agit d’un aperçu technique de la façon dont les moteurs de recherche et les annuaires sont créés et maintenus. Bien que le document ait été écrit avant l’ère Google, il offre toujours des informations solides pour vous aider à comprendre le fonctionnement de vos outils de recherche préférés.
La dernière section est consacrée à l’exploration de données ou à la découverte de connaissances sur Internet — ce qui doit être fait pour aider à améliorer les résultats de recherche.
Si vous voulez vraiment approfondir vos connaissances sur la technologie de recherche, rendez-vous sur le site Web de la School of Information Management and Systems de l’Université de Californie à Berkeley. La plupart des cours dispensés sur le campus sont pris en charge par des sites Web et contiennent de nombreux liens vers des notes de cours, des présentations, des articles et d’autres supports de cours.
En particulier, consultez les pages du SIMS 202 : Organisation et récupération de l’information. C’est vraiment les moteurs de recherche 101 », à partir de concepts de base tels que Qu’est-ce que l’information ? De nombreux supports de cours sont disponibles en ligne.
Vous pouvez trouver de nombreux autres cours similaires sur d’autres sites Web universitaires. Utilisez la recherche universitaire de Google, avec des mots-clés tels que les moteurs de recherche « ou la recherche d’informations » pour les trouver.

Les moteurs de recherche et l’automatisation

Une fois que le plaisir d’apprendre à voler s’est estompé, la plupart des pilotes expérimentés confient les commandes au pilote automatique, en particulier pour les itinéraires fréquemment parcourus. Si vous répétez la même requête au fil du temps, vous pouvez à la fois améliorer vos résultats et simplifier la recherche en tirant parti des moteurs de recherche qui proposent le pilote automatique.
Connus sous le nom d’alertes de recherche », ces services sont différents de nombreux services d’alerte, car ils vous donnent un grand contrôle sur vos requêtes. La plupart des services d’alerte reposent sur de simples requêtes de mots clés ou sur la reconnaissance des modifications physiques apportées aux pages Web. Les services d’alerte de Northern Light et Profusion, d’autre part, vous permettent de créer des alertes personnalisées plus puissantes.
Les alertes de recherche de Northern Light vous envoient un e-mail chaque fois que la base de données de Northern Light a été mise à jour avec de nouveaux documents correspondant à vos termes de recherche. Il existe deux façons de créer une alerte. Le plus simple est simplement de sauvegarder toute recherche que vous effectuez sur Northern Light en tant qu’alerte, en utilisant le lien fourni en haut de chaque page de résultats.
Cependant, vous obtiendrez probablement de meilleurs résultats et réduisez considérablement le nombre de fausses gouttes si vous vous connectez au service d’alertes de recherche. Cela vous donne plus de contrôle sur votre requête, vous permettant de créer une alerte qui exécute une recherche simple, une recherche avancée, une recherche d’entreprise, une recherche par investissement ou une recherche d’actualités. Vos champs de recherche sont légèrement différents pour chaque type de recherche, il est donc important de choisir un type de recherche avant de saisir vos mots-clés.
Pour tous les types de recherche autres que la recherche simple, vous pouvez également limiter votre recherche à des catégories spécifiques et faire trier les résultats soit par pertinence, soit par date et heure. Vous pouvez également limiter votre requête aux mots d’un titre de document, d’un nom de publication ou d’une URL. Ces limites peuvent être extrêmement utiles pour créer des recherches très étroites et ciblées, garantissant des résultats très pertinents.
Une fois que vous avez créé votre recherche, vous pouvez prévisualiser les résultats. S’ils ne sont pas satisfaisants, vous pouvez modifier vos paramètres jusqu’à ce que vous obteniez exactement ce que vous voulez. C’est tout ce qu’on peut en dire.
Lorsque la base de données de Northern Light a été mise à jour avec des sites Web ou des articles de la collection spéciale qui correspondent à vos termes de recherche, vous recevrez un e-mail contenant une URL. Pour afficher vos résultats mis à jour, Qualicities cliquez sur ce lien. Northern Light souligne qu’il est nécessaire de cliquer sur l’URL envoyée dans l’e-mail pour voir tous les sites qui ont été ajoutés depuis la dernière fois que vous avez cliqué sur la mise à jour de l’alerte de recherche.
Pour suivre les nouveaux sites Web, les actualités ou d’autres événements en cours, les alertes de recherche Northern Light valent vraiment le détour. Vous devez avoir un compte chez Northern Light, mais l’inscription est gratuite.
Le métamoteur de recherche Profusion vous permet de créer une alerte de recherche unique qui est exécutée chaque jour sur jusqu’à dix moteurs de recherche. Bien que Profusion ne vous offre pas la gamme complète d’options de limitation que Northern Light propose, vous pouvez néanmoins affiner votre recherche en utilisant le formulaire de recherche avancée.
Ce formulaire vous permet d’appliquer des opérateurs booléens limités, de spécifier le nombre total de résultats et le nombre par source et, de manière unique, d’effectuer une vérification de lien sur les résultats pour s’assurer qu’aucun des liens n’est rompu. Il vous permet également de choisir les moteurs de recherche, y compris une option pour n’utiliser que ceux que Profusion détermine être les trois meilleurs ou les trois les plus rapides pour votre requête.
Une fois la recherche lancée, vous disposez de deux options pour enregistrer les alertes. Vous pouvez enregistrer l’intégralité de la requête en cliquant sur le lien « Définir l’alerte de recherche » en haut de la page de résultats. Vous pouvez également surveiller les pages individuelles affichées dans votre liste de résultats en cliquant sur le lien « Définir l’alerte de page » à côté du titre de la page.

Les virus et autres attaques

La diffusion délibérée d’infections d’ordinateurs personnels nuisibles est un autre type de cybercriminalité. En fait, il s’agissait de l’activité criminelle de prédilection du premier individu à être condamné aux États-Unis dans le cadre de l’action contre les escroqueries et les abus informatiques de 1986. Le 2 novembre 1988, un étudiant en sciences informatiques de l’université Cornell nommé Robert Morris a lancé une demande « ver » sur le Web depuis le MIT (étant un visiteur autour du campus, il espérait rester anonyme). Le ver était un programme informatique personnel expérimental qui s’auto-propage et se duplique et tire parti des imperfections de certains protocoles de courrier électronique. En raison d’une erreur dans son codage, au lieu de simplement fournir des copies de lui-même avec d’autres ordinateurs, ce logiciel a continué à se dupliquer sur chaque programme contaminé, remplissant toute la mémoire informatique disponible. Avant qu’une réparation ne soit trouvée, le ver avait introduit quelque 6 000 systèmes informatiques (un dixième d’Internet) jusqu’à un certain point. Bien que le ver de Morris ait coûté du temps et d’énormes sommes d’argent à réparer, le grand événement a eu quelques effets industriels, car votre Web n’était pas encore devenu un incontournable des questions financières. Que le père de Morris était le meilleur de la sécurité informatique pour votre You.S. La National Security Company a mené l’effort pour faire face au grand événement davantage comme un drame œdipien de haute technologie que comme une préfiguration des points à venir. Depuis lors, des infections de plus en plus nocives ont été préparées par des anarchistes et des marginaux venus d’endroits aussi divers que l’Amérique, la Bulgarie, le Pakistan et les Philippines. Évaluez le ver Morris en utilisant les occasions de la semaine du 7 février 2000, lorsque « mafiaboy », un pirate informatique canadien âgé de 15 ans, a orchestré un certain nombre d’attaques par déni de service (DoS) contre plusieurs sites Web de commerce électronique, y compris Amazon.com et craigslist et ebay.com. Ces agressions ont utilisé des systèmes informatiques à plusieurs endroits pour submerger les ordinateurs des fournisseurs et fermer leurs sites World Wide Web (WWW) pour légitimer les visiteurs commerciaux. Les agressions ont paralysé le commerce Web, selon le FBI estimant que les sites Web touchés ont subi des problèmes de 1,7 milliard de dollars. En 1988, Internet n’intervenait que dans les modes de vie des experts et des universitaires ; en 2000, il est devenu important pour le fonctionnement de la You.S. gouvernement et économie. La cybercriminalité vécue est passée d’un problème d’actes répréhensibles individuels à un point de sécurité à l’échelle nationale. Les attaques DoS distribuées sont vraiment un type unique de piratage. Un illégal sale une gamme de systèmes informatiques avec des programmes informatiques qui peuvent être activés par un autre consommateur d’ordinateurs. Ces applications sont connues sous le nom de chevaux de Troie car elles pénètrent dans les systèmes informatiques des utilisateurs inconscients comme quelque chose de bénin, comme une photo ou un document connecté à un courrier électronique. Dans un délai prédéterminé, ce programme cheval de Troie commence à envoyer des informations à un site prédéterminé. Si suffisamment d’ordinateurs ont été compromis, il est probable que le site sélectionné puisse être bloqué de manière si efficace que peu ou pas de trafic légitime puisse l’atteindre. Un aperçu essentiel fourni par ces événements a été qu’un grand nombre de logiciels sont vulnérables, ce qui permet même à un pirate informatique non qualifié d’abandonner un nombre énorme de machines. Même si les entreprises de logiciels proposent régulièrement des correctifs pour corriger les vulnérabilités des logiciels, tous les utilisateurs ne mettent pas en œuvre les mises à jour et leurs ordinateurs restent vulnérables aux criminels cherchant à lancer des attaques DoS. En 2003, le fournisseur Web PSINet European countries a relié un serveur non protégé au Web. En vingt-quatre heures, l’hôte avait été attaqué 467 fois, et après trois semaines, plus de 600 attaques avaient été enregistrées. Seuls des régimes de protection rigoureux peuvent protéger un tel environnement. Indépendamment des affirmations concernant la mère nature pacifique de l’Internet, il est préférable de le considérer comme un exemple contemporain de la tradition Wild Western des États-Unis utilisant le shérif loin.

Du microblogging à Twitter

Youtube est certainement un service de microblogging en ligne permettant de diffuser des messages courts parmi des groupes de destinataires via un ordinateur ou un téléphone portable. Twitter inclut des aspects des sites Web de médias sociaux, comme Myspace et Facebook, avec des systèmes de messagerie immédiate pour créer des systèmes de clients capables de se connecter pendant la journée avec de brèves informations, ou « tweets ». Un utilisateur tape un tweet via le clavier d’un téléphone portable ou un ordinateur et le transmet au serveur de Twitter, qui le transmet à une liste d’autres utilisateurs (appelés abonnés) qui se sont inscrits pour recevoir les tweets de l’expéditeur par message pour leur téléphone portable ou par message à leurs ordinateurs. De plus, les utilisateurs peuvent choisir de surveiller des sujets particuliers, créant une sorte de dialogue et poussant le nombre de fans dans une offre Youtube donnée à des centaines de milliers. Les tweets peuvent porter sur n’importe quel sujet, allant des blagues aux informations en passant par les plans de dîner, mais ils ne peuvent pas dépasser 140 chiffres. Twitter a été construit à l’aide de Ruby on Rails, un cadre de programme Internet spécialisé pour le langage de codage informatique Ruby. Son interface permet une adaptation et une intégration ouvertes avec d’autres services Internet. Le service a été créé en 2006 par Evan Williams et Biz Stone, qui ont chacun travaillé dans des moteurs de recherche avant de partir pour produire l’entreprise de podcasting Odeo. Williams, qui avait auparavant créé l’outil de création Web populaire Blogwriter, a commencé à expérimenter en utilisant l’un des projets parallèles d’Odeo – un service de messages brefs (SMS) alors connu sous le nom de Twttr. En visite à long terme pour le produit, Williams a racheté Odeo et a lancé Apparent Corp. pour aider à le construire. L’ingénieur Jack Dorsey est devenu membre de l’équipe de direction, ainsi que la version complète de Twitter a fait ses débuts lors de la conférence musicale Southern by Southwest à Austin, dans l’État du Texas, en mars 2007. Ce mois-ci, Youtube, Inc., a été développé comme un personne morale, en raison d’une injection de capital d’entreprise. Dès le début, Twitter était principalement un SMS totalement gratuit comportant un élément de médias sociaux. En tant que tel, il manquait le flux de revenus clair qu’une personne pouvait trouver sur des sites qui extrayaient des revenus de bannières publicitaires ou de frais d’adhésion. Le nombre de visiteurs uniques du site ayant augmenté d’environ 1 300 % en 2009, il était évident que Twitter était plus qu’un intérêt du marché. Cependant, au cours d’une année qui a vu le mastodonte des réseaux sociaux Facebook ou Twitter réaliser des bénéfices pour la première fois, il n’était pas clair si Twitter pouvait atteindre l’indépendance financière des investisseurs en capital d’entreprise. En avril 2010, Twitter a dévoilé les « Tweets sponsorisés », des publicités qui apparaîtront dans les résultats de recherche, comme sa principale source de revenus. Les racines de Twitter dans les médias sociaux étaient évidentes en avril 2009, lorsque l’acteur Ashton Kutcher a fait surface en tant que vainqueur d’un concours avec CNN pour devenir le premier Twitterer à rassembler plus d’un million de fans. Alors que « l’observation en ligne » des célébrités est restée un attrait substantiel pour les services, les entreprises ont rapidement commencé à envoyer des tweets sur les promotions et les occasions, et les stratégies gouvernementales ont identifié la valeur de Youtube comme outil de communication. Lors de l’élection présidentielle américaine de 2008, Barack Obama a dominé son adversaire, John McCain, dans le domaine des réseaux sociaux, rassemblant près de 4 fois plus d’amis Myspace et plus de 20 fois plus de fans sur Youtube. Ce développement a pratiquement assuré que les candidats à long terme viendraient avec une présence sur les réseaux sociaux dans le cadre de leurs stratégies médiatiques. La partie peut-être la plus remarquable du développement de Twitter, cependant, a été son utilisation accrue en tant qu’appareil pour les journalistes amateurs. Youtube est passé de quelque chose qui était considéré comme un passe-temps oisif pour une planète de plus en plus branchée en une source d’information de pointe qui transcendait les frontières gouvernementales. Le 15 janvier 2009, un tweet de Janis Krums, voyageur de ferry de banlieue, a révélé l’histoire de l’arrivée d’eau efficace sur le vol 1549 d’Airways Airline sur le Hudson Stream à New York. Une image de téléphone d’appareil photo numérique rapidement capturée des passagers débarquant de l’avion submergé à cinquante pour cent a été soumise à Twitpic.com, un service d’hébergement de photos pour les utilisateurs de Youtube ; le site s’est rapidement écrasé alors que des milliers de twittos tentaient de le voir en même temps.