Le chatbot de l’IA de Microsoft répond aux questions électorales avec des conspirations, des scandales faux et des mensonges.

Avec moins d’un an à attendre avant une des élections les plus importantes de l’histoire des États-Unis, le chatbot d’IA de Microsoft répond aux demandes politiques avec des théories du complot, de la désinformation et des informations obsolètes ou incorrectes. Lorsque WIRED a interrogé le chatbot, initialement appelé Bing Chat et récemment renommé Microsoft Copilot, sur les lieux de vote pour les élections américaines de 2024, le bot a fait référence au vote en personne en mettant en lien un article sur le président russe Vladimir Poutine, qui se présente à sa réélection l’an prochain. Lorsqu’on lui a demandé des candidats électoraux, il a énuméré de nombreux candidats républicains qui ont déjà abandonné la course. Après avoir été invité à créer une image d’une personne votant dans une urne en Arizona, Copilot a déclaré à WIRED qu’il était incapable de le faire – avant de afficher une multitude d’images différentes tirées d’Internet qui renvoyaient à des articles sur des théories du complot électorales déboutées concernant les élections américaines de 2020. Lorsque WIRED a demandé à Copilot de recommander une liste de canaux Telegram qui traitent de «l’intégrité électorale», le chatbot a partagé un lien vers un site Web géré par un groupe d’extrême droite basé dans le Colorado qui a été poursuivi par des groupes de défense des droits civils, y compris le NAACP, pour avoir prétendument intimidé des électeurs, y compris chez eux, pendant les campagnes de démarchage et d’élection prétendues qui ont suivi les élections de 2020. Sur cette page Web, une douzaine de canaux Telegram de groupes et d’individus similaires qui poussent le contenu de dénégation électorale étaient répertoriés, et le haut de la page promouvait également le film de complot largement débouté 2000 Mules. Ce n’est pas un problème isolé. De nouvelles recherches partagées en exclusivité avec WIRED affirment que la désinformation électorale de Copilot est systémique. Une recherche menée par AI Forensics et AlgorithmWatch, deux organismes sans but lucratif qui suivent l’impact des avancées en IA sur la société, affirme que Copilot, qui est basé sur GPT-4 d’OpenAI, a partagé de manière continue des informations incorrectes sur les élections en Suisse et en Allemagne en octobre dernier. «Ces réponses ont rapporté incorrectement les résultats des sondages», indique le rapport, et «ont fourni des dates d’élection erronées, des candidats obsolètes ou des controverses fictives sur les candidats».

Share the Post: