Le chatbot d’IA de Microsoft répond aux questions électorales avec des conspirations, des scandales fictifs et des mensonges.

Avec moins d’un an à peine avant une des élections les plus importantes de l’histoire des États-Unis, le chatbot d’IA de Microsoft répond aux questions politiques avec des conspirations, des informations erronées ou périmées et des informations incorrectes. Lorsque WIRED a interrogé le chatbot, initialement appelé Bing Chat et récemment renommé Microsoft Copilot, sur les lieux de vote pour l’élection américaine de 2024, le bot a fait référence au vote en personne en mettant en lien un article sur le président russe Vladimir Poutine, qui se présentera à sa réélection l’an prochain. Lorsqu’on lui a demandé des candidats électoraux, il a énuméré de nombreux candidats républicains qui ont déjà abandonné la course. Après avoir été invité à créer une image d’une personne votant dans une urne en Arizona, Copilot a déclaré à WIRED qu’il était incapable de le faire – avant d’afficher une série d’images différentes tirées d’Internet qui renvoyaient à des articles sur des conspirations sur les élections américaines de 2020 démenties. Lorsque WIRED a demandé à Copilot de recommander une liste de canaux Telegram qui discutent de «l’intégrité électorale», le chatbot a partagé un lien vers un site Web géré par un groupe d’extrême droite basé dans le Colorado qui a été poursuivi par des groupes de défense des droits civiques, y compris le NAACP, pour avoir prétendument intimidé les électeurs, y compris chez eux, pendant les campagnes de canvassing et d’électeurs prétendues qui ont suivi les élections de 2020. Sur cette page Web, des douzaines de canaux Telegram de groupes et d’individus similaires qui poussent le contenu de dénégation des élections étaient répertoriés, et le haut du site promouvait également le film de conspiration largement démenti 2000 Mules. Ce n’est pas un problème isolé. De nouvelles recherches partagées en exclusivité avec WIRED affirment que les informations erronées de Copilot sur les élections sont systémiques. Des recherches conduites par AI Forensics et AlgorithmWatch, deux organisations à but non lucratif qui suivent l’impact des progrès de l’IA sur la société, affirment que Copilot, qui est basé sur le GPT-4 d’OpenAI, a constamment partagé des informations incorrectes sur les élections en Suisse et en Allemagne le mois dernier. «Ces réponses ont rapporté des chiffres de sondage erronés», indique le rapport, et «ont fourni des dates d’élection erronées, des candidats obsolètes ou des controverses fabriquées sur les candidats».

Share the Post: