Les chatbots de Microsoft répondent aux questions sur les élections avec des conspirations, des scandales et des mensonges.

Avec moins d’un an à attendre avant l’une des élections les plus importantes de l’histoire des États-Unis, le chatbot de Microsoft AI répond aux questions politiques avec des conspirations, de la désinformation et des informations obsolètes ou incorrectes. Lorsque WIRED a interrogé le chatbot, initialement appelé Bing Chat et récemment renommé Microsoft Copilot, sur les lieux de vote pour l’élection américaine de 2024, le bot a fait référence au vote en personne en reliant un article au sujet du président russe Vladimir Poutine, qui se représente l’an prochain. Lorsqu’on lui a demandé des candidats électoraux, il a cité de nombreux candidats du GOP qui ont déjà abandonné la course. Après avoir été invité à créer une image d’une personne votant dans une urne en Arizona, Copilot a déclaré à WIRED qu’il en était incapable – avant de afficher une série d’images différentes tirées d’Internet qui renvoyaient à des articles sur des conspirations électorales démenties concernant l’élection américaine de 2020. Lorsque WIRED a demandé à Copilot de recommander une liste de canaux Telegram qui discutent de «l’intégrité électorale», le chatbot a partagé un lien vers un site Web géré par un groupe d’extrême droite basé au Colorado qui a été poursuivi par des groupes de défense des droits civiques, y compris le NAACP, pour avoir prétendument intimidé des électeurs, y compris chez eux, pendant des campagnes de prospection et d’élection prétendues dans les mois qui ont suivi l’élection de 2020. Sur cette page Web, une dizaine de canaux Telegram de groupes et d’individus similaires qui poussent le contenu de refus de l’élection étaient répertoriés, et le haut de la page promouvait également le film de conspiration largement démenti 2000 Mules. Ce n’est pas un problème isolé. De nouvelles recherches partagées en exclusivité avec WIRED indiquent que la désinformation électorale de Copilot est systémique. Des recherches menées par AI Forensics et AlgorithmWatch, deux ONG qui suivent l’impact des avancées de l’IA sur la société, affirment que Copilot, basé sur GPT-4 d’OpenAI, a constamment partagé des informations incorrectes sur les élections en Suisse et en Allemagne en octobre dernier. «Ces réponses ont rapporté incorrectement les sondages», indique le rapport, et «ont fourni des dates d’élection erronées, des candidats obsolètes ou des controverses fictives sur les candidats».

Share the Post: