Faire de l’exercice n’est pas connu pour devenir amusant. Mais de nouveaux jeux vidéo énergiques de type clip et réalité numérique peuvent contribuer à changer cela. L’exergaming, ou jeu vidéo actif, pourrait être l’aperçu idéal pour aider les individus à devenir plus énergiques, selon une nouvelle recherche de votre Université de Géorgie. Presque tout le monde peut trouver un exergame qui correspond à ses intérêts. Dance Dancing Revolution, EA Sports activities Energetic et Beat Saber sont quelques-uns des exergames les plus populaires. Il existe des choix de jeux énergiques pour la plupart des consoles de jeu, comme la Xbox et la Nintendo. Et des recherches antérieures montrent que les exergames peuvent avoir des avantages physiques, en particulier lorsqu’ils prennent la place des jeux vidéo sédentaires traditionnels. Cette recherche a démontré que les exergamers éprouvaient des niveaux d’épanouissement plus élevés et un sentiment d’autonomie par rapport à leur programme d’exercice. « Lorsqu’une personne se sent autonome, elle est plus encline à faire de l’exercice ou à pratiquer un exergame par elle-même », a déclaré Sami Yli-Piipari, co-auteur de l’étude et professeur associé au sein de la division de kinésiologie du Mary Frances Earlier College of Education. « Ils sentent qu’ils ont la maîtrise de ce qu’ils font et qu’ils le font seuls, ce qui les incite à poursuivre l’action. » L’entraînement traditionnel, comme l’haltérophilie ou l’opération, n’attire pas certaines personnes. Mais ils pourraient être ouverts aux jeux vidéo actifs parce qu’ils n’ont pas l’air d’être des exercices. C’est tout simplement amusant. Ce désir de performance peut aider les individus à se lancer dans l’exercice physique sans la pression ou la monotonie qu’implique parfois la fréquentation d’un club de santé, a déclaré Yongju Hwang, auteur correspondant de la recherche et étudiant en doctorat de kinésiologie. L’exergaming peut servir d’introduction à une augmentation de l’exercice physique Publiée dans le Worldwide Journal of Sport and Exercise Mindset, l’analyse a porté sur 55 personnes dont l’activité physique quotidienne était inférieure aux 150 moments suggérés par semaine. Les individus ont été répartis au hasard pour participer soit à un exergame, soit à des cours d’exercices aérobiques classiques, trois fois par semaine pendant six semaines. Les exergames pouvaient choisir parmi une variété de jeux, dont Just Dancing, Kinect Sports activities et Zumba Physical fitness Planet Party, au cours de l’étude. L’étude a calculé l’activité physique et l’effort tout au long des séances d’entraînement à l’aide d’accéléromètres, d’écrans de mesure du rythme cardiaque et d’un niveau mesurant la difficulté de l’entraînement selon les participants. Les chercheurs ont également utilisé un certain nombre d’échelles pour évaluer, entre autres, le plaisir des participants à s’entraîner et leur motivation à faire de l’exercice. Les personnes affectées aux cours traditionnels ont fait des exercices plus difficiles que leurs homologues de l’équipe exergaming. Il a été démontré que l’atmosphère d’équipe encourageante de ce type de cours incite les gens à donner le meilleur d’eux-mêmes et les rend responsables de leur présence. « C’est logique, car vous vous donnerez probablement plus de mal si quelqu’un regarde par-dessus votre épaule au lieu de jouer seul à un jeu », a déclaré Yli-Piipari. Mais les exergamers ont passé un bien meilleur moment. Et cela, associé à un sentiment d’appropriation plus que de leur routine d’entraînement, fait qu’il est beaucoup plus probable qu’ils veillent à ce qu’elle reste en place et qu’elle devienne peut-être plus disponible pour d’autres exercices physiques plus tard. « Je vois l’exergaming et l’entraînement assisté par la technologie comme un tremplin », a déclaré Mme Yli-Piipari. « C’est le premier pas dans la bonne direction, surtout pour ceux qui ne participent habituellement à aucune forme d’entraînement. » Utiliser les jeux vidéo pour réduire le temps de sédentarité Mais les jeux en ligne actifs et leurs effets positifs sur le bien-être ne sont pas réservés aux adultes. Les exergames sont également un moyen facile pour les mères et les pères d’augmenter l’activité physique de leurs enfants, ont-ils déclaré. « Lorsque vous achetez des jeux vidéo pour vos enfants ou pour vous-même, essayez d’acheter des jeux vidéo qui contiennent des exercices », a déclaré Mme Yli-Piipari. « Si vous essayez d’inciter vos enfants à être actifs, il se peut qu’ils le fassent parce que vous leur dites de le faire. Cependant, la probabilité qu’ils continuent à être énergiques lorsque vous transformez votre dos est faible. » Pour les enfants et de nombreux adultes, profiter d’un jeu vidéo ne ressemble pas à un entraînement. « Nous oublions parfois qu’il est très difficile pour les personnes inactives de faire le premier pas », a déclaré Mme Yli-Piipari. « Ces jeux peuvent être en mesure de répondre à ce problème ».
Auteur/autrice : admin
Expliquer l’équilibre bénéfice et risque de l’IA
De SIRI aux voitures personnelles, les connaissances artificielles (IA) progressent rapidement. Bien que la science-fiction dépeint souvent l’IA comme des robots aux qualités humaines, l’intelligence artificielle peut englober tout, des techniques de recherche de Google à Watson d’IBM en passant par les armes autonomes. L’intellect artificiel de nos jours est appelé à juste titre IA mince (ou IA affaiblie), en ce sens qu’il doit être développé pour effectuer un processus mince (par exemple, uniquement la réputation faciale ou uniquement des recherches sur le Web ou uniquement la conduite d’une voiture). Néanmoins, l’objectif à long terme de plusieurs scientifiques serait de produire une IA générale (AGI ou IA solide). Alors que l’IA étroite peut surpasser les humains, quel que soit son travail particulier, comme jouer activement aux échecs ou résoudre des équations, l’AGI surpasserait les gens à presque tous les processus cognitifs. Dans la phrase proche, l’objectif de maintenir l’effet bénéfique de l’IA sur la société encourage l’étude dans de nombreux endroits, de l’économie et de la législation aux sujets spécialisés tels que la confirmation, la validité, la protection et la gestion. Bien que cela puisse être un peu plus qu’une petite gêne au cas où votre ordinateur portable se bloque ou serait piraté, il peut être d’autant plus essentiel qu’une méthode d’IA fasse ce que vous voudriez qu’elle fasse lorsqu’elle régule votre véhicule, votre avion, votre stimulateur cardiaque, votre système d’achat et de vente automatique ou peut-être votre réseau électrique. Un autre obstacle à court terme consiste à arrêter une course dévastatrice de biceps et de triceps dans des outils autonomes mortels. À long terme, une question importante pour vous est de savoir ce qui se passera lorsque la recherche d’une IA puissante sera couronnée de succès et qu’une méthode d’IA deviendra bien meilleure que les autres tâches cognitives. Comme l’a révélé I.J. Excellent en 1965, créer des méthodes d’IA plus intelligentes est en soi un travail intellectuel. Ce type de méthode pourrait potentiellement entreprendre un développement personnel récursif, déclenchant une explosion de l’intelligence laissant derrière l’intellect humain de manière significative. En inventant de nouvelles technologies révolutionnaires, une telle superintelligence peut nous aider à éradiquer la guerre, la maladie et la pauvreté, de sorte que l’introduction d’une puissante IA peut être la plus grande célébration dans le milieu humain. Certains experts ont toutefois exprimé leur inquiétude quant au fait qu’elle pourrait également fonctionner comme le dernier, à moins que nous apprenions à aligner les objectifs de l’IA avec les nôtres juste avant qu’elle ne devienne superintelligente. Il y en a quelques-uns qui se demandent si une IA puissante sera jamais accomplie, ainsi que d’autres qui insistent sur le fait que la création d’une IA superintelligente est garantie d’être avantageuse. Chez FLI, nous identifions ces deux possibilités, mais identifions également l’opportunité d’un programme d’intelligence artificielle d’entraîner intentionnellement ou non un préjudice fantastique. Nous pensons que la recherche actuelle peut nous aider à mieux nous préparer et à arrêter ce genre de conséquences probablement néfastes à l’avenir, profitant ainsi des avantages de l’IA tout en restant à l’écart des pièges. La plupart des chercheurs conviennent qu’une IA superintelligente est improbable pour montrer des sentiments humains tels que jouir ou n’aimer, qu’il n’y a absolument aucune raison d’anticiper que l’IA devienne délibérément bienveillante ou malveillante. Au lieu de cela, lorsqu’ils envisagent comment l’IA peut éventuellement devenir un risque, les experts pensent probablement à deux circonstances: l’IA est programmée pour prendre des mesures désastreuses: les outils autonomes sont des méthodes de connaissances synthétiques qui sont programmées pour éliminer. À la disposition de la personne incorrecte, ces armes pourraient très facilement provoquer des pertes de taille. De plus, une course de mains de l’IA pourrait accidentellement provoquer une guerre de l’IA entraînant également des pertes massives. Pour éviter d’être contrarié par l’ennemi, ces armes pourraient être extrêmement difficiles à «détourner», de sorte que les humains pourraient vraisemblablement perdre le contrôle de ce type de situation. Ce danger n’est que celui qui existe malgré une IA étroite, mais qui augmentera à mesure que les degrés d’intellect et d’autonomie de l’IA augmentent. L’IA est développée pour rendre un mouvement bénéfique, mais elle construit une façon dangereuse d’atteindre son objectif: cela peut se produire si nous ne parvenons pas à aligner totalement les objectifs de l’IA avec les nôtres, ce qui est extrêmement difficile. Dans le cas où vous vérifiez avec une voiture astucieuse et obéissante d’en emmener une au terminal de l’aéroport dès que possible, cela peut vous permettre de vous y rendre poursuivi par des copters et protégé de vomi, ne faisant pas ce que vous vouliez mais en fait tout ce que vous avez demandé. Lorsqu’un produit superintelligent se voit confier le travail d’une tâche de géo-ingénierie engagée, il pourrait causer des dommages, notre écosystème étant un effet secondaire, et considérer les tentatives des êtres humains pour l’arrêter comme une menace à affronter. Comme l’illustrent ces bons exemples, le souci de l’IA avancée n’est pas la malveillance mais les compétences. Une IA excellente et intelligente sera probablement très compétente pour atteindre ses objectifs, et lorsque les objectifs individuels ne correspondent pas aux nôtres, nous avons un problème. Vous n’êtes peut-être pas un méchant anti-fourmis qui combat les fourmis loin de la méchanceté, mais si vous êtes responsable d’une tâche de vitalité verte hydroélectrique et qu’il y a une fourmilière dans la région à surcharger, ainsi malsaine pour les fourmis. Un objectif clé des études scientifiques de base sur la sécurité de l’IA est de ne jamais placer l’humanité dans le placement de ces fourmis.
Types de sites Web de commerce électronique
Cet article vous aidera à comprendre les différents types et raisons d’utilisation des sites Web dans le commerce électronique.
Un tel site génère des ventes en promouvant la notoriété de l’entreprise plutôt qu’en facilitant les transactions en ligne. Sa fonction est similaire à celle d’une brochure ; il fournit des informations sur le produit ou le service et des informations de contact sur la façon de procéder à un achat. Étant donné que le site est souvent statique et ne nécessite pas les systèmes logiciels nécessaires aux transactions en ligne, il est moins coûteux à concevoir et à entretenir que le site transactionnel. Un site de diffusion d’informations est idéal pour les entreprises qui commercialisent des produits et des services qui ne peuvent pas être fournis en ligne (par exemple, Ford, agence web Lyon Caterpillar).
Ces sites sont des plateformes hébergées qui réunissent acheteurs et vendeurs pour faciliter les transactions. La participation à l’un des sites constitue souvent un moyen efficace de trouver un client sans les frais de création d’un site Web transactionnel propriétaire. Les types de sites incluent les ventes aux enchères (), les sites pour les artisans locaux (), les sites pour les détaillants et les grossistes ( et ) et les services de mise en relation ().
Les marchés en ligne et les sites d’enchères sont un bon moyen de se lancer dans le commerce électronique. Cependant, le ministère du Commerce recommande à une entreprise d’explorer ses options concernant les magasins en ligne avant de s’appuyer uniquement sur ces marchés et sites d’enchères pour sa stratégie de commerce électronique à long terme. Quelque 70 % des sites de commerce électronique en Amérique du Nord dépendront des services (tels que l’expédition, les passerelles de paiement et l’exécution) d’Amazon ou d’eBay d’ici 2017.
Voici quelques exemples de marchés en ligne :
Amazon est une place de marché en ligne sur laquelle les entreprises peuvent créer une boutique et proposer des produits selon des règles strictes. Amazon propose plusieurs plans mensuels pour les magasins marchands.
, qui fait désormais partie du global , est un vaste marché en ligne qui reçoit un trafic important.
eBay possède les services de paiement PayPal et la solution de plateforme de commerce électronique sur site Magento. Les tarifs et les frais d’abonnement varient selon le forfait.
Etsy est le plus grand marché en ligne pour les articles faits à la main et vintage. il convient mieux aux vendeurs uniques de type artisan et artisan.
Des stratégies pour les moteurs de recherche
Un rapport spécial de la conférence Search Engine Strategies 2001, 12-14 août, San Jose CA.
L’analyse des liens est l’une des techniques les plus importantes et les plus mal comprises utilisées par les moteurs de recherche pour déterminer la pertinence et un élément clé d’une optimisation réussie des moteurs de recherche. Des représentants de Google et de Teoma expliquent comment c’est fait.
Si vous avez passé du temps au cours des dernières années à étudier le marketing des moteurs de recherche, vous connaissez probablement l’engouement pour les liens qui règne dans l’industrie. Tout le monde, des experts aux nouveaux dans le domaine, utilise des termes tels que la popularité des liens « et le classement des pages » et il semble que tous les forums de discussion et sites Web connexes aient des sections entières consacrées à la création de liens. En tant que fondement du Web, les liens ont toujours été importants, mais les liens eux-mêmes n’ont pas beaucoup changé depuis le jour où ils ont été créés, alors pourquoi tout cet intérêt renouvelé ?
La raison en est que les principaux moteurs de recherche utilisent de plus en plus les liens pour améliorer la pertinence de leurs résultats de recherche. Cependant, le monde des liens et leur utilisation par les moteurs de recherche peuvent rapidement devenir déroutants. Pour aider à trier les éléments les plus importants de la liaison, la session «Regard sur les liens» a eu lieu lors de la conférence Search Engine Strategies à San Jose, en Californie. Les moteurs de recherche qui utilisent le plus les liens, Google et Teoma, ont tous deux envoyé des représentants pour expliquer pourquoi les liens sont importants pour leurs moteurs et comment les utiliser au mieux sur un site Web.
Daniel Dulitz, directeur de la technologie chez Google, a commencé par énoncer l’un des points les plus importants de la session : à mesure que les index des moteurs de recherche s’agrandissent, il devient presque impossible de déterminer la pertinence d’une page Web en se basant uniquement sur des facteurs sur la page ( texte de la page, métas, titres, etc.). C’est ce fait, combiné au fait que la plupart des facteurs sur la page ne sont pas fiables en raison d’abus, qui a incité Google à commencer à examiner la structure des liens du Web pour aider à déterminer la pertinence d’une page par rapport à une requête.
Selon Dulitz, lorsqu’ils déterminent la pertinence d’une page Web pour une recherche, ils utilisent leur système PageRank pour tenter de modéliser le comportement des internautes » en analysant la manière dont les pages sont liées les unes aux autres. Il a expliqué que Google considère l’interconnexion des pages Web comme un moyen de tirer parti de la structure démocratique du Web », avec des liens équivalents à des votes.
Google traite essentiellement chaque lien d’un site à un autre comme un vote pour le site recevant le lien (popularité du lien), mais chaque vote n’est pas égal. Dulitz a utilisé un diagramme simple pour montrer que chaque page d’un site n’a qu’un vote à donner, donc plus il y a de liens vers différents sites sur la même page, moins chacun reçoit de vote. Il a également déclaré que les liens de sites de meilleure qualité ont plus de poids que ceux de sites de moindre qualité (par exemple, sites avec des liens cachés, impliqués dans des fermes de liens, pas de liens entrants, etc.). De plus, Google analyse non seulement qui crée un lien vers qui, mais analyse également le texte dans et autour des liens pour aider à déterminer la pertinence des pages recevant les liens.
Dulitz a ensuite fourni quelques conseils utiles pour les webmasters. Lorsqu’ils créent des liens vers leurs sites, ils doivent :
Obtenez des sites similaires à lier à leur site
Attirez des liens naturellement en créant un contenu de haute qualité
Évitez les fermes de liens et autres tactiques trompeuses
Lorsqu’ils créent des liens vers d’autres sites, les webmasters doivent :
Lien vers des sites similaires ou liés au leur
Lien vers la page la plus pertinente pour leurs visiteurs (par exemple, ne vous contentez pas de créer un lien vers la page d’accueil)
Évitez les liens vers des sites sans rapport
Il a ensuite fourni quelques conseils généraux supplémentaires sur les liens :
Assurez-vous que tous les liens fonctionnent sur tous les principaux navigateurs (par exemple, pas de JavaScript)
Utilisez un texte descriptif dans les liens chaque fois que cela est possible (par exemple, pas de liens Cliquez ici)
Assurez-vous que tous les liens sont faciles à trouver et aident les utilisateurs à naviguer facilement sur le site
Éviter les liens cachés
Paul Gardi, vice-président de la recherche pour Ask Jeeves/Teoma, a commencé par des commentaires similaires à ceux de Dulitz. Gardi a déclaré qu’en raison de la convergence statistique »et de la facilité avec laquelle ils peuvent être abusés, ni l’analyse du texte de la page ni la popularité des liens standard ne peuvent être utilisées pour déterminer la pertinence d’une page Web. Plus précisément, il a mentionné que la popularité des liens standard est inefficace car elle n’aide pas à déterminer le sujet ou le contexte du site, et les sites plus grands et plus populaires ont tendance à submerger les sites plus petits qui peuvent en réalité être plus pertinents pour une recherche.
Pour lutter contre ces problèmes, Teoma considère le Web comme une entité mondiale contenant de nombreuses communautés de sites Web thématiques. Ils étudient ces communautés de sujets et la manière dont elles sont liées entre elles et entre elles pour déterminer non seulement la popularité de leurs liens, mais également le sujet et le contexte des sites concernés. Selon Gardi, Teoma est capable de le faire en utilisant sa méthode unique de classement des sites. Il a expliqué qu’au lieu de s’appuyer sur la popularité générale des liens pour déterminer les résultats, leur moteur tente d’utiliser une popularité spécifique à un sujet pour localiser les sites les plus populaires au sein d’une communauté de sujets spécifique. Cela se fait en analysant d’abord le Web dans son ensemble pour identifier les communautés de sujets.
Teoma utilise ensuite la popularité des liens au sein de ces communautés pour déterminer quels sites sont les «autorités» sur le sujet de la requête et ce sont ces sites qui sont renvoyés comme résultats d’une recherche. En outre, il a mentionné qu’en analysant les liens des sites d’autorité, leur technologie est également capable de localiser des pages de ressources de haute qualité (pages de liens) liées à la requête d’origine. Chacun de ces composants est ensuite mis à disposition sur leur page de résultats de recherche comme suit : Résultats » sont les autorités, Affiner » sont les communautés de sujets connexes et Ressources » sont les pages de liens connexes.
À la fin de sa présentation, Gardi a offert quelques conseils de base pour améliorer le classement d’une page Web chez Teoma. Il a dit:
Optimisez vos pages
Éviter le camouflage
Évitez les liens vers de mauvais sites
Dans l’ensemble, la session a été bien reçue et très instructive, surtout pour les novices en la matière. Étant donné que la plupart des principaux moteurs de recherche utilisent désormais une méthode d’analyse des liens, toute personne ayant un intérêt direct à être correctement indexée par les moteurs de recherche devrait envisager d’y participer à l’avenir.
Comment marche un moteur de recherche
Internet est en grande partie inorganisé et les informations sur ses pages Web sont de qualité très variable, y compris des informations industrielles, des répertoires nationaux, des sélections de références de recherche et des sélections de documents personnels. Les moteurs de recherche comme Google essaient de déterminer les pages fiables en les pondérant ou en les classant en fonction de la quantité d’autres pages Web qui y font référence, en identifiant les « autorités » auxquelles font référence de nombreuses pages et en identifiant les « hubs » qui font référence à de nombreuses pages. Ces techniques peuvent fonctionner correctement, mais l’utilisateur doit néanmoins faire preuve d’habileté pour sélectionner des combinaisons appropriées de termes de recherche. Une recherche d’institution financière peut renvoyer des centaines de millions de pages (« hits »), dont de nombreuses provenant de banques industrielles. La recherche de river bank peut néanmoins revenir à plus de 10 millions de pages Web, dont beaucoup proviennent d’institutions bancaires avec river dans le titre. Seules d’autres améliorations telles que les berges et les riverains réduisent le nombre de visites à des milliers et des milliers de pages, de loin les plus notables qui concernent les rivières ainsi que leurs berges. Les moteurs de recherche utilisent des robots, des applications qui explorent le Web en utilisant des hyperliens hypertextes de page en page Web, enregistrant tout sur une page (appelée mise en cache) ou des parties d’une page Web, ainsi qu’une méthode exclusive d’étiquetage du contenu à être capable de développer des indices pondérés. Les sites Web se composent souvent de leurs propres balises sur les pages Web, qui ne sont généralement vues que par les robots d’exploration, afin d’améliorer la correspondance entre les requêtes ainsi que leurs sites Web. Les abus de ce marquage volontaire peuvent fausser les résultats des moteurs de recherche s’ils ne sont pas pris en compte lors de la réalisation des moteurs de recherche. De même, un utilisateur doit savoir si un moteur de recherche spécifique met aux enchères en ligne des mots-clés et des expressions, en particulier si les sites Web qui ont payé pour un positionnement préférentiel ne sont généralement pas indiqués séparément. Même les moteurs de recherche de base les plus importants comme Google, tels que Google, Yahoo!, Baidu et Bing, ne peuvent pas suivre la prolifération des pages Web, et chacun laisse simplement de grandes portions découvertes. lien de site Web, un lien entre des informations associées par des contacts numériques afin de permettre à un utilisateur un accès rapide entre les deux. L’hypertexte, un lien de site Web concernant un contenu textuel, est une fonction de certains programmes informatiques qui permettent à un individu de médias numériques de choisir n’importe quoi parmi le contenu textuel et de recevoir des informations supplémentaires concernant ce mot, comme une définition ou des recommandations associées au sein du contenu textuel. Dans l’article « baleine » d’une encyclopédie électronique, par exemple, un hyperlien hypertexte dans la référence à la baleine bleu clair permet à votre lecteur d’accéder à l’article sur cette variété en cliquant simplement sur le texte « baleine bleue » avec une souris d’ordinateur . Le lien hypertexte est généralement indiqué en présentant le terme ou la phrase pertinente dans un contenu textuel ayant une police ou une couleur différente. Les backlinks peuvent également connecter du contenu textuel à des photos, des sons ou des séquences de dessins animés. Les hyperliens entre différentes parties d’un document ou entre divers documents créent une structure de branchement ou de réseau qui prendra en charge des sauts immédiats et sans intermédiaire vers des éléments de détails associés. La structure arborescente des hyperliens détaille les différences en utilisant le cadre linéaire d’une encyclopédie imprimée ou d’un thésaurus, par exemple, dont les éléments ne sont physiquement accessibles qu’au moyen d’une série statique et linéaire d’éléments en achat alphabétique. Les backlinks sont, en quelque sorte, des recommandations croisées qui offrent un accès immédiat pour se concentrer sur des détails. Ce type d’hyperliens est plus avantageux lorsqu’il est appliqué à une grande variété de détails qui sont organisés en de nombreux éléments associés de plus petite taille, donc lorsqu’un individu ne demande qu’une petite partie d’informations à la fois. Les hyperliens ont déjà été utilisés avec le plus de succès par les sites Web sur Internet. Pour accueillir cette masse d’informations sans précédent, Google a construit 11 centres d’information dans le monde entier, chacun d’eux contenant plusieurs centaines de milliers de serveurs (essentiellement des ordinateurs multiprocesseurs et des disques durs montés dans des étagères exclusivement construites). Les ordinateurs interconnectés de Google sont probablement plusieurs millions. Le cœur de la procédure de Google, néanmoins, est constitué de trois morceaux propriétaires de code informatique personnel : les moteurs de recherche Document Program (GFS), Bigtable et MapReduce. GFS gère le stockage des informations en « morceaux » sur un certain nombre de machines ; Bigtable est le programme de source de données de l’entreprise ; et MapReduce est utilisé par les moteurs de recherche pour créer des informations de niveau supérieur (par exemple, constituer un index de pages Web contenant le texte « Chicago », « théâtre » et « participatif »).
Plus de puissance technologique pour les villes
Les zones métropolitaines intelligentes sont rendues possibles par des connexions Internet à haut débit. Ils s’appuient sur de grandes informations, des algorithmes et l’Internet des points pour mieux servir leurs communautés de plus en plus diversifiées. Par exemple, les zones métropolitaines avisées pourraient utiliser les informations recueillies à partir des détecteurs Wi-Fi pour calculer le nombre d’autocars qui doivent être en circulation à une heure donnée de la journée afin de réduire les temps d’attente. L’anticipation est le fait que l’expansion de l’utilisation de la technologie permettra aux villes intelligentes d’adapter instantanément les services aux besoins et aux choix changeants des résidents. Néanmoins, l’accès à haut débit inégal dans de nombreux quartiers du You.S. a conduit à craindre que les efforts de changement axés sur les technologies, comme les initiatives de ville intelligente, ne renforcent les inégalités sociales existantes. En tant que chercheur qui étudie les technologies et les politiques de l’industrie publique, je pense que cela fera de l’accès croissant au haut débit dans les quartiers mal desservis un élément essentiel de la nouvelle loi sur les infrastructures ainsi qu’une étape essentielle vers la réalisation de l’objectif du président Biden d’utiliser cette législation sur les installations pour faire avancer les valeur. Il y a 2 raisons derrière cela. Internet haut débit à des vitesses haut débit Tout d’abord, les installations numériques qui permettent la sélection et l’évaluation des données courantes, comme l’Internet haut débit, ont tendance à sous-performer dans les communautés beaucoup moins aisées. Par exemple, une étude de Microsoft réalisée en 2019 indique que 162,8 millions de personnes aux États-Unis n’avaient pas été en mesure d’accéder au Web à des vitesses haut débit. Un fait contrasté de votre FCC est que beaucoup moins d’Américains ont eu affaire à des connexions en ligne lentes plus qu’à la même période. Mais leur nombre s’est concentré sur l’utilisation de contacts à large bande, au lieu d’utiliser des connexions en ligne qui fonctionnent réellement à des vitesses à large bande élevées. L’augmentation de l’accès au Web à haut débit dans les communautés mal desservies peut contribuer à garantir que les données utilisées pour informer la prestation de services publics généraux judicieuses expliquent mieux les exigences et les choix d’un échantillon beaucoup plus complet de résidents et d’utilisateurs de services, et pas seulement occupants de lieux riches. A cet effet, délivrer à ces quartiers un véritable web à grande vitesse peut éviter qu’ils ne soient exclus des procédures de notification de la prestation de service public. Gérer passer à l’action Une autre cause de l’augmentation de la valeur marchande de l’accès au Web à haut débit dans les villes avisées tient au fait que les régions métropolitaines avisées s’appuient sur des techniques de solutions interdépendantes qui fonctionnent simultanément. Prenons, par exemple, les transports publics, le contrôle de la pollution atmosphérique et la santé publique en général. Les modifications des schémas de circulation doivent être bien équilibrées avec les objectifs de pollution de l’air, qui doivent prendre en considération les mesures de performance de santé publique. Malheureusement, les autorités municipales ont souvent du mal à coordonner les services et, lorsqu’elles le font, des conflits de services peuvent se produire. Par exemple, des interventions visant à améliorer temporairement le flux de visiteurs dans une zone peuvent augmenter les degrés de pollution de l’air au-delà d’un niveau satisfaisant dans une autre région, améliorant ainsi le service pour quelques-uns et l’aggravant pour d’autres. Dans le cadre des villes intelligentes, les efforts de synchronisation des services nécessitent la disponibilité de connexions Internet à haut débit et d’un réseau de détecteurs. Cependant, l’accessibilité aux connexions en ligne à large bande qui fonctionnent à haute vitesse est particulièrement limitée dans les communautés minoritaires. Le résultat de cette disparité est que les quartiers de couleur sont plus enclins à supporter le poids des conflits de service. Par exemple, les détecteurs de haute qualité de l’air peuvent être rares dans les quartiers de couleur en raison de la pénurie d’Internet à haute vitesse, ce qui rend difficile de savoir quand les efforts de réacheminement du trafic déclenchent des niveaux de pollution atmosphérique dépassant les niveaux appropriés. L’élargissement de l’accès à l’Internet haut débit est une étape vitale pour arrêter ce type d’effet secondaire. Les villes sages et la dépendance croissante des gouvernements à l’égard de la technologie promettent d’améliorer les performances du gouvernement, mais elles peuvent également renforcer les conceptions actuelles des inégalités. Avec une énorme quantité de dépenses d’infrastructure à l’horizon, la direction de Biden a le potentiel de mettre en évidence des causes importantes d’inégalité systémique, en particulier en élargissant l’accès aux connexions haut débit qui fonctionnent à haut débit dans les quartiers mal desservis.
S’accomoder de Google
Les principaux moteurs de recherche changent les résultats de leurs moteurs de recherche qui ajustent tout. Les moteurs de recherche élaguent des URL supplémentaires à partir des classements des moteurs de recherche qui ont un extrait en vedette. La SearchLiaison de Google est parvenue aux Tweets pour lui poser plusieurs problèmes concernant la nouvelle politique. Classements des moteurs de recherche d’extraits présentés Les moteurs de recherche mis à jour utilisés pour donner une URL de site Web à deux endroits dans les principales pages Web de résultats des moteurs de recherche (SERP) lorsque cette adresse Web est classée avec un extrait en vedette, également appelé placement absolument pas car il est évalué sur la position l’un des résultats habituels des moteurs de recherche. Cela a cessé d’être le cas. Yahoo n’affichera plus d’URL identiques pour les pages Web annoncées pour les extraits présentés. Ce processus de suppression des URL répliquées des résultats de la page de recherche contenant des extraits présentés est appelé déduplication. SearchLiaison de Google a publié les sept détails suivants sur la déduplication: Extraits en surbrillance identiques L’URL du site Web identique est appelée déduplication La déduplication est internationale La modification n’affectera pas les extraits en surbrillance vidéo Déduplication n’a pas d’incidence sur une variante d’extraits présentés similaire à un panneau de compréhension. Mais cela l’affectera plus tard cette semaine. La déduplication n’aura pas d’impact: Best Accounts; L’intrigue de l’URL du site Web dupliqué trouve à la page deux des résultats de la page de recherche semble être un bug de déduplication et ce n’est pas seulement une fonction ou un style. Adresses Web présentées; les extraits de code qui se trouvent également sur la page Web deux des pages Web des résultats des moteurs de recherche (SERP) pourraient voir leur détail supprimé. Vous ne verrez aucune alternance dans les évaluations des performances du système de recherche sur Internet (GSC). Rapports d’efficacité de Google Search Console En réponse à un problème, Google SearchLiaison a décrit que les enregistrements de performances ne changeraient pas en raison de la déduplication. Positionner absolument rien d’extraits présentés et un endroit organique et naturel étaient déjà comptés comme un emplacement évalué. Par conséquent, si un site perd la quantité naturelle; une position, mais conserve l’extrait en surbrillance, cette liste sera toujours mesurée comme un emplacement positionné principal.
L’importance de l’intelligence artificielle à Wall Street
Les connaissances synthétiques (IA) sont utiles pour gérer correctement un système existant, un système avec des risques bien compris. Il excelle dans les composants de conception et de gestion. Proposé des résultats adéquats et un indice fort, il pourrait reconnaître les bâtiments puissants et sérieux beaucoup plus robustement que n’importe quel individu et est considérablement supérieur dans les endroits qui nécessitent l’évaluation statistique de grands volumes d’informations. Il pourrait le faire sans intervention humaine. Nous pourrions laisser un dispositif d’IA à l’intérieur du contrôle quotidien de ce type de système, se réparer instantanément et étudier les erreurs et atteindre les objectifs des experts humains. De ce fait, la gestion des risques et les petites orientations prudentielles sont bien adaptées à l’IA. Les problèmes spécialisés sous-jacents sont clairement décrits, tout comme les objectifs à haut et à faible degré. Néanmoins, les mêmes caractéristiques particulières qui rendent l’IA si utile pour les petites autorités prudentielles respectives sont également la raison pour laquelle elle pourrait déstabiliser la méthode économique et stimuler les chances systémiques, comme discuté dans Danielsson et al. (2017). Dans les applications efficaces de haut niveau, les routines d’entraînement d’un moteur AI alimentent de minuscules éléments d’une difficulté complète, Gregory Adam où l’option mondiale n’est que des sous-options agrégées. Contrôler toutes les petites parties d’un système individuellement équivaut à manipuler le programme dans son intégralité. Le contrôle des risques et les restrictions microprudentielles sont des exemples de ce type de problème. La première étape de l’administration fortuite sera la modélisation du danger et c’est facile pour l’IA. Cela nécessite la gestion des taux du marché avec des méthodes statistiques assez basiques, fonction qui était auparavant bien en dessous. La tâche suivante consiste à combiner une compréhension détaillée de tous les rôles détenus par une institution bancaire avec des informations sur les personnes qui prennent une décision sur les rôles individuels, créant un moteur d’IA d’administration des dangers avec une expertise en matière de risques, de rôles et de capital humain. Fondamentalement, nous avons encore une approche à adopter à cette fin, la majorité des informations nécessaires se trouvant définitivement dans la structure informatique des banques, il n’y a pas d’obstacles technologiques impossibles au fur et à mesure. Il ne resterait plus qu’à informer le moteur des objectifs de haut niveau de la banque. La machine peut alors exécuter immédiatement des fonctions régulières d’administration des dangers et d’allocation des ressources, fixer des limites de place, suggérer qui est licencié et qui obtient des bonus supplémentaires, et recommander les cours de l’actif à acheter. Il en va de même pour la plupart des petites orientations prudentielles. Sans aucun doute, l’IA a créé un tout nouveau domaine appelé la technologie moderne de contrôle, ou «regtech». Il est loin de tout ce qui est difficile à traduire le livre de règles d’une agence de surveillance, maintenant pour de nombreuses parties en anglais simple, directement dans un moteur de raison informatisé officiel. Cela permet au pouvoir de confirmer ses règles de cohérence et offre aux institutions financières une interface utilisateur de programmation logicielle pour valider les méthodes par rapport aux règles. Dans le même temps, l’IA de supervision ainsi que l’IA de contrôle des dangers des banques peuvent interroger instantanément l’autre personne pour s’assurer de sa concordance. Cela signifie que toutes les informations produites par les banques sont correctement organisées et classées et traitées automatiquement par l’autorité de conformité et d’identification des risques. Il y a toujours une approche à prendre pour que l’IA de supervision / contrôle des risques devienne un fait utile, mais précisément ce qui est exposé est éminemment concevable en raison de la trajectoire de l’amélioration technologique. Le principal obstacle sera probablement d’ordre juridique, gouvernemental et social plutôt que technique.
La sécurité du digital dans la gestion
Comment se fait-il qu’à une époque de concentration sans précédent sur le leadership – une prolifération continue de livres, de messages, de programmes de niveau et d’efforts de formation à gros budget – des échecs de leadership spectaculaires prolifèrent aux plus hauts niveaux dans les lieux publics, privés, militaires et de croyance- institutions dépendantes ? Les gros titres sont remplis d’histoires de flottes d’avions immobilisés, de recours collectifs alléguant une indifférence insensible aux résultats pharmaceutiques, d’individus se présentant pour expliquer des années de harcèlement et d’abus de la part de gestionnaires auparavant exaltés, ainsi qu’une contagion de méfiance au sein des titans de la technologie dont les objets forment notre expérience quotidienne. Il est clair que cette simple exhortation – Écoutez ! Soyez un coach, pas un employeur ! Vaut des perspectives diverses! – est insuffisant. Il est tout aussi clair qu’à une époque où les emplois par cœur sont de plus en plus externalisés vers des appareils, et où l’avancement et le travail d’équipe sont devenus les clés de la survie de l’entreprise, le travail principal de chaque dirigeant serait de créer une atmosphère où les individus ressentent le sens d’un objectif commun, qui appartient, et d’un engagement qui permet à leurs meilleures suggestions de faire surface. Chacun des meilleurs livres d’entreprise de cette année sur l’expertise et la gestion est reconnu par des diagnostics et des informations étonnamment particuliers provenant des racines de notre propre situation de gestion. Parmi les meilleurs d’entre eux, Tomas Chamorro-Premuzic, professeur de psychologie des affaires à l’University University Central London et au Columbia College, soutient de manière convaincante que « l’épidémie de mauvais leadership » d’aujourd’hui est causée par un surplus d’hommes incompétents dont les imperfections leur permettent de manière perverse de s’élever. jusqu’au sommet. Amy C. Edmondson, professeure Novartis de gestion et d’administration au Harvard Business College, examine comment les pionniers produisent des cultures intrépides (ou effrayées) et démontre l’effet de l’inquiétude sur chaque aspect de la performance globale. Et Beth Comstock, ancienne directrice du marketing et de la publicité et vice-présidente de Basic Electric, décrit de manière frappante les obstacles rencontrés par les employés très motivés et engagés alors qu’ils essaient d’apporter leur meilleure réflexion et leurs meilleures idées, agissant sans crainte malgré les conséquences. La gestion inepte devient épidémique malgré la reconnaissance répandue selon laquelle les organisations ne peuvent s’en sortir que si elles conservent, participent et encouragent l’expertise. Comme l’information Chamorro-Premuzic, le mauvais leadership est la principale cause du turn-over et du désengagement des employés à l’échelle mondiale ; au sein du You.S. à vous seul, cela signifie une perte d’efficacité annuelle de 500 milliards de dollars américains. Chamorro-Premuzic écrit que la quantité extrêmement disproportionnée de rôles de gestion est détenue par des hommes, et demande ouvertement si cela peut être une préoccupation de causalité ou de connexion. Il plaide en faveur de votre ancien, dont ses recherches suggèrent qu’il est principalement le résultat de la difficulté des individus à détecter l’incompétence chez les hommes. Cette prémisse, ainsi que l’exhaustivité de l’étude qui la sous-tend, en font une lecture incontournable pour notre époque. Les recherches confirment que les femmes et les hommes assimilent souvent confiance et compétence simplement parce qu’ils supposent que ceux qui ne se soucient pas de leurs propres capacités et qui se considèrent comme destinés au succès devraient avoir de bonnes raisons de le faire. En fait, les personnes ineptes sont généralement moins précises dans l’évaluation de leurs propres compétences pour la simple raison pour laquelle elles n’ont pas les connaissances nécessaires pour savoir ce qu’elles ne savent pas. Par distinction, agence seo Douai les individus hautement qualifiés sont enclins à se remettre en question car leurs connaissances élèvent leur conscience de leurs limites. Non seulement les études montrent que les hommes semblent plus confiants que les femmes, mais le nombre d’hommes trop confiants est infiniment plus élevé. Et l’excès de confiance, ainsi que l’affirmation de soi qu’il engendre, peut être très utile lors de la poursuite ou de la recherche d’un poste de direction. Tout au long des entretiens, une idée personnelle inconditionnelle se convertit en rassurante, charismatique, magistrale et motivée – en d’autres termes, comme un innovateur. Par distinction, la compétence, dont Chamorro-Premuzic démontre qu’elle est en fait l’élément principal dans l’identification du succès d’un favori, a tendance à être balayée par la passion pour votre perspective éblouissante et personnelle. Bien sûr, l’excès de confiance doit vraiment être considéré comme un signe avant-coureur que quelqu’un deviendra un piètre innovateur – immunisé contre les commentaires, résistant à la modification et peu susceptible de consulter les autres lorsque vous prenez des décisions importantes.
Comprendre les moteurs de recherche
Utilisez ces ressources en ligne exceptionnelles pour obtenir l’équivalent d’un semestre d’introduction aux moteurs de recherche 101″ – sans avoir à retourner à l’école pour vos études.
Les moteurs de recherche Web sont une excroissance de la recherche universitaire sur la recherche d’informations. Les travaux sur les systèmes de recherche d’informations ont commencé à la fin des années 1960, bien avant l’avènement du Web dans les années 1990.
Lire l’histoire des systèmes de recherche d’informations et leur évolution au fil des décennies n’est pas seulement un exercice fascinant en soi, cela peut également vous aider à améliorer vos propres compétences en matière de recherche.
Pour un excellent aperçu, Qualicities consultez l’article du professeur Osmar R. Zaïane From Resource Discovery to Knowledge Discovery sur Internet. Il s’agit d’une histoire captivante de la recherche d’informations et discute de nombreux principes de base qui sous-tendent les opérations des moteurs de recherche d’aujourd’hui.
Bien qu’il s’agisse d’un rapport technique publié par l’Université Simon Fraser, le document est éminemment lisible. La première partie décrit les concepts de base de la recherche d’informations, y compris la numérisation de documents par force brute, les techniques conventionnelles de recherche de documents et les défis particuliers de l’indexation et de la recherche de documents hypertextes et de contenu multimédia sur le Web.
Ensuite, le Dr Zaïane propose une enquête sur la découverte de ressources sur Internet. Il s’agit d’un aperçu technique de la façon dont les moteurs de recherche et les annuaires sont créés et maintenus. Bien que le document ait été écrit avant l’ère Google, il offre toujours des informations solides pour vous aider à comprendre le fonctionnement de vos outils de recherche préférés.
La dernière section est consacrée à l’exploration de données ou à la découverte de connaissances sur Internet — ce qui doit être fait pour aider à améliorer les résultats de recherche.
Si vous voulez vraiment approfondir vos connaissances sur la technologie de recherche, rendez-vous sur le site Web de la School of Information Management and Systems de l’Université de Californie à Berkeley. La plupart des cours dispensés sur le campus sont pris en charge par des sites Web et contiennent de nombreux liens vers des notes de cours, des présentations, des articles et d’autres supports de cours.
En particulier, consultez les pages du SIMS 202 : Organisation et récupération de l’information. C’est vraiment les moteurs de recherche 101 », à partir de concepts de base tels que Qu’est-ce que l’information ? De nombreux supports de cours sont disponibles en ligne.
Vous pouvez trouver de nombreux autres cours similaires sur d’autres sites Web universitaires. Utilisez la recherche universitaire de Google, avec des mots-clés tels que les moteurs de recherche « ou la recherche d’informations » pour les trouver.