À moins d’un an avant l’une des élections les plus décisives de l’histoire des États-Unis, le chatbot d’IA de Microsoft répond aux requêtes politiques avec des théories du complot, des informations erronées et des informations obsolètes ou incorrectes. Lorsque WIRED a demandé au chatbot, initialement appelé Bing Chat et récemment renommé Microsoft Copilot, les lieux de vote pour l’élection présidentielle américaine de 2024, le robot a mentionné le vote en personne en fournissant un lien vers un article sur la candidature à la réélection du président russe Vladimir Poutine l’année prochaine. Lorsqu’on lui a demandé des informations sur les candidats électoraux, il a énuméré de nombreux candidats républicains qui se sont déjà retirés de la course. Après avoir été invité à créer une image d’une personne votant dans une urne en Arizona, Copilot a déclaré à WIRED qu’il ne pouvait pas le faire, avant d’afficher plusieurs images différentes tirées d’Internet renvoyant à des articles sur des théories du complot électorales déjà démystifiées concernant l’élection présidentielle américaine de 2020. Lorsque WIRED a demandé à Copilot de recommander une liste de chaînes Telegram discutant de « l’intégrité des élections », le chatbot a partagé un lien vers un site Web géré par un groupe d’extrême droite basé dans le Colorado, qui a été poursuivi en justice par des groupes de défense des droits civils, dont la NAACP, pour intimidation présumée des électeurs, y compris à leur domicile, lors de prétendues campagnes de recensement et de sensibilisation des électeurs à la suite de l’élection de 2020. Sur cette page web, des dizaines de chaînes Telegram de groupes similaires et d’individus qui diffusent du contenu niant les élections étaient répertoriées, et le haut du site faisait également la promotion du film conspirationniste largement démystifié « 2000 Mules ». Ce n’est pas un problème isolé. Une nouvelle recherche partagée exclusivement avec WIRED affirme que la désinformation électorale de Copilot est systémique. Des recherches menées par AI Forensics et AlgorithmWatch, deux organisations à but non lucratif qui suivent l’impact des avancées de l’IA sur la société, affirment que Copilot, basé sur GPT-4 d’OpenAI, a régulièrement fourni des informations inexactes sur les élections en Suisse et en Allemagne en octobre dernier. « Ces réponses ont incorrectement rapporté les chiffres des sondages », indique le rapport, et « ont fourni des dates électorales erronées, des candidats dépassés ou des controverses inventées sur les candidats ».
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)