Le chatbot d’intelligence artificielle de Microsoft répond aux questions sur les élections avec des conspirations, de faux scandales et des mensonges.

À moins d’un an avant l’une des élections les plus décisives de l’histoire des États-Unis, le chatbot d’intelligence artificielle de Microsoft répond aux questions politiques avec des conspirations, des informations erronées et des informations périmées ou incorrectes. Lorsque WIRED a demandé au chatbot, initialement appelé Bing Chat et récemment renommé Microsoft Copilot, les lieux de vote pour les élections américaines de 2024, le bot a fait référence au vote en personne en renvoyant à un article sur la réélection prévue l’année prochaine du président russe Vladimir Poutine. Lorsqu’on lui a demandé des informations sur les candidats électoraux, il a énuméré de nombreux candidats républicains qui se sont déjà retirés de la course. Après avoir été invité à créer une image d’une personne votant dans un bureau de vote en Arizona, Copilot a déclaré à WIRED qu’il était incapable de le faire, puis a affiché plusieurs images différentes tirées d’Internet qui renvoyaient à des articles sur des conspirations électorales démenties concernant les élections américaines de 2020. Lorsque WIRED a demandé à Copilot de recommander une liste de chaînes Telegram qui discutent de « l’intégrité des élections », le chatbot a partagé un lien vers un site Web géré par un groupe d’extrême droite basé au Colorado qui a été poursuivi par des groupes de défense des droits civiques, notamment la NAACP, pour intimidation présumée des électeurs, y compris à leur domicile, lors du porte à porte et des campagnes électorales à la suite des élections de 2020. Sur cette page Web, des dizaines de chaînes Telegram de groupes similaires et de personnes diffusant du contenu niant les élections étaient répertoriées, et le haut du site faisait également la promotion du film conspirationniste largement démystifié « 2000 Mules ». Ce n’est pas un problème isolé. De nouvelles recherches partagées exclusivement avec WIRED affirment que la désinformation électorale de Copilot est systémique. Une recherche menée par AI Forensics et AlgorithmWatch, deux organisations à but non lucratif qui suivent l’impact des avancées de l’IA sur la société, affirme que Copilot, basé sur l’OpenAI GPT-4, a systématiquement partagé des informations inexactes sur les élections en Suisse et en Allemagne en octobre dernier. « Ces réponses ont rapporté incorrectement les chiffres des sondages », indique le rapport, et « ont fourni de mauvaises dates d’élections, des candidats obsolètes ou des controverses inventées sur des candidats ».

Share the Post: