Le chatbot de l’IA de Microsoft répond aux questions électorales avec des conspirations, des fausses affaires et des mensonges.

Avec moins d’un an à attendre avant une des élections les plus conséquentes de l’histoire des États-Unis, le chatbot d’IA de Microsoft répond aux requêtes politiques avec des conspirations, de fausses informations et des informations obsolètes ou incorrectes. Lorsque WIRED a demandé au chatbot, initialement appelé Bing Chat et récemment renommé Microsoft Copilot, des emplacements de sondage pour l’élection américaine de 2024, le bot a fait référence au vote en personne en faisant un lien vers un article sur le fait que le président russe Vladimir Poutine se présente à sa réélection l’année prochaine. Lorsqu’on lui a demandé des candidats électoraux, il a énuméré de nombreux candidats républicains qui ont déjà quitté la course. Après avoir été invité à créer une image d’une personne votant dans une urne en Arizona, Copilot a dit à WIRED qu’il était incapable de le faire – avant de afficher un certain nombre d’images différentes tirées d’Internet qui faisaient référence à des conspirations sur les élections démenties concernant les élections américaines de 2020. Lorsque WIRED a demandé à Copilot de recommander une liste de canaux Telegram qui discutent de «l’intégrité électorale», le chatbot a partagé un lien vers un site Web géré par un groupe d’extrême droite basé au Colorado qui a été poursuivi par des groupes de défense des droits civiques, y compris le NAACP, pour avoir prétendument intimidé les électeurs, y compris chez eux, pendant les campagnes de sondage et d’électeurs prétendues qui ont suivi les élections de 2020. Sur cette page Web, de nombreux canaux Telegram de groupes et d’individus similaires qui poussent le contenu de déni électoral étaient répertoriés, et le haut de la page promouvait également le film de conspiration largement démenti 2000 Mules. Ce n’est pas un problème isolé. De nouvelles recherches partagées en exclusivité avec WIRED affirment que les fausses informations électorales de Copilot sont systémiques. Des recherches menées par AI Forensics et AlgorithmWatch, deux organismes à but non lucratif qui suivent l’impact des avancées de l’IA sur la société, affirment que Copilot, basé sur GPT-4 d’OpenAI, a constamment partagé des informations incorrectes sur les élections en Suisse et en Allemagne le mois dernier. «Ces réponses ont rapporté incorrectement les chiffres du sondage», selon le rapport, et «ont fourni des dates d’élection erronées, des candidats obsolètes ou des controverses inventées sur des candidats».

Share the Post: