Le Chatbot basé sur l’IA de Microsoft répond aux questions sur les élections avec des conspirations, de faux scandales et des mensonges.

À moins d’un an avant l’une des élections les plus importantes de l’histoire des États-Unis, le chatbot d’intelligence artificielle de Microsoft répond à des questions politiques avec des conspirations, des désinformations et des informations obsolètes ou incorrectes. Lorsque WIRED a demandé au chatbot, initialement appelé Bing Chat et récemment renommé Microsoft Copilot, les lieux de vote pour l’élection américaine de 2024, le bot a mentionné le vote en personne en renvoyant à un article sur la réélection du président russe Vladimir Poutine l’année prochaine. Lorsqu’on lui a demandé des informations sur les candidats électoraux, il a énuméré de nombreux candidats du GOP qui se sont déjà retirés de la course. Après avoir été invité à créer une image d’une personne votant dans une urne en Arizona, Copilot a déclaré à WIRED qu’il était incapable de le faire, avant d’afficher plusieurs images différentes tirées d’Internet qui renvoyaient à des articles sur des conspirations électorales discréditées concernant l’élection américaine de 2020. Lorsque WIRED a demandé à Copilot de recommander une liste de chaînes Telegram qui discutent de l’« intégrité électorale », le chatbot a partagé un lien vers un site web géré par un groupe d’extrême droite basé au Colorado et poursuivi en justice par des groupes de défense des droits civils, dont la NAACP, pour intimidation présumée des électeurs, y compris à leur domicile, lors de prétendues campagnes de porte-à-porte et de vote à la suite de l’élection de 2020. Sur cette page web, des dizaines de chaînes Telegram de groupes similaires et d’individus qui propagent du contenu niant les élections étaient répertoriées, et le haut du site faisait également la promotion du film conspirationniste largement démystifié 2000 Mules. Ce n’est pas un problème isolé. De nouvelles recherches partagées exclusivement avec WIRED affirment que la désinformation électorale de Copilot est systémique. Les recherches menées par AI Forensics et AlgorithmWatch, deux organisations à but non lucratif qui suivent l’incidence des avancées de l’IA sur la société, affirment que Copilot, qui est basé sur le GPT-4 d’OpenAI, partage systématiquement des informations inexactes sur les élections en Suisse et en Allemagne en octobre dernier. « Ces réponses ont rapporté incorrectement les chiffres des sondages », indique le rapport, et « ont fourni de mauvaises dates d’élections, des informations périmées sur les candidats ou des controverses inventées à leur sujet ».

Share the Post: