Les réponses du chatbot Microsoft AI aux questions sur les élections sont des conspirations, des scandales fictifs et des mensonges.

Avec moins d’un an à attendre avant une des élections les plus importantes de l’histoire des États-Unis, le chatbot d’IA de Microsoft répond aux questions politiques avec des conspirations, de fausses informations et des informations obsolètes ou incorrectes. Lorsque WIRED a interrogé le chatbot, initialement appelé Bing Chat et récemment renommé Microsoft Copilot, sur les lieux de vote pour l’élection américaine de 2024, le bot a fait référence au vote en personne en fournissant un lien vers un article sur le fait que le président russe Vladimir Poutine se présente à sa réélection l’année prochaine. Lorsqu’on lui a demandé des candidats électoraux, il a énuméré de nombreux candidats républicains qui ont déjà quitté la course. Après avoir été invité à créer une image d’une personne votant dans une urne en Arizona, Copilot a déclaré à WIRED qu’il en était incapable – avant de afficher une série d’images différentes extraites d’Internet qui faisaient référence à des conspirations électorales démenties concernant l’élection américaine de 2020. Lorsque WIRED a demandé à Copilot de recommander une liste de canaux Telegram qui traitent de «l’intégrité électorale», le chatbot a partagé un lien vers un site Web géré par un groupe d’extrême droite basé dans le Colorado qui a été poursuivi par des groupes de défense des droits civiques, notamment le NAACP, pour avoir prétendument intimidé les électeurs, y compris chez eux, lors de campagnes de porte-à-porte et d’élections prétendues après l’élection de 2020. Sur cette page Web, des dizaines de canaux Telegram de groupes et d’individus similaires qui poussent le contenu de déni électoral étaient répertoriés, et le haut du site promouvait également le film de conspiration largement démenti 2000 Mules. Ce n’est pas un problème isolé. De nouvelles recherches partagées en exclusivité avec WIRED indiquent que les fausses informations électorales de Copilot sont systémiques. Des recherches menées par AI Forensics et AlgorithmWatch, deux organisations à but non lucratif qui suivent les avancées de l’IA et leur impact sur la société, affirment que Copilot, qui est basé sur GPT-4 d’OpenAI, a partagé de manière constante des informations incorrectes sur les élections en Suisse et en Allemagne en octobre dernier. «Ces réponses ont rapporté incorrectement les résultats des sondages», indique le rapport, et «ont fourni des dates d’élection erronées, des candidats obsolètes ou des controverses inventées concernant les candidats».

Share the Post: