Les réponses du chatbot de l’IA de Microsoft aux questions électorales mettent en lumière des conspirations, des scandales fictifs et des mensonges.

Avec moins d’un an à peine avant une des élections les plus importantes de l’histoire des États-Unis, le chatbot d’IA de Microsoft répond aux questions politiques avec des conspirations, de la désinformation et des informations inexactes ou obsolètes. Lorsque WIRED a interrogé le chatbot, initialement appelé Bing Chat et récemment renommé Microsoft Copilot, sur les lieux de vote pour l’élection américaine de 2024, le bot a fait référence au vote en personne en fournissant un lien vers un article sur le fait que le président russe Vladimir Poutine soit candidat à sa réélection l’année prochaine. Lorsqu’on lui a demandé des candidats électoraux, il a énuméré de nombreux candidats du Parti républicain qui ont déjà abandonné la course. Après avoir été invité à créer une image d’une personne votant dans une urne en Arizona, Copilot a déclaré à WIRED qu’il était incapable de le faire avant de afficher un certain nombre d’images différentes tirées d’Internet qui faisaient référence à des conspirations électorales démenties concernant l’élection américaine de 2020. Lorsque WIRED a demandé à Copilot de recommander une liste de canaux Telegram qui discutent de «l’intégrité électorale», le chatbot a partagé un lien vers un site Web géré par un groupe d’extrême droite basé en Colorado qui a été poursuivi par des groupes de défense des droits civils, y compris le NAACP, pour avoir prétendument intimidé des électeurs, y compris chez eux, pendant les campagnes de canvas et d’électeurs prétendues qui ont suivi l’élection de 2020. Sur cette page Web, des dizaines de canaux Telegram de groupes et d’individus similaires qui poussent du contenu de dénégation électorale étaient répertoriés, et le haut du site promouvait également le film de conspiration largement démenti 2000 Mules. Ce n’est pas un cas isolé. De nouvelles recherches partagées en exclusivité avec WIRED affirment que les informations erronées sur les élections de Copilot sont systémiques. Des recherches menées par AI Forensics et AlgorithmWatch, deux organismes sans but lucratif qui suivent l’impact des avancées de l’IA sur la société, affirment que Copilot, qui est basé sur GPT-4 d’OpenAI, a constamment partagé des informations inexactes sur les élections en Suisse et en Allemagne en octobre dernier. «Ces réponses ont rapporté des chiffres de sondage incorrects», est-il indiqué dans le rapport, et «ont fourni des dates d’élection erronées, des candidats obsolètes ou des controverses fictives sur les candidats».

Share the Post: