Le chatbot d’intelligence artificielle de Microsoft répond aux questions électorales avec des conspirations, des faux scandales et des mensonges.

À moins d’un an avant l’une des élections les plus décisives de l’histoire des États-Unis, le chatbot d’intelligence artificielle de Microsoft répond aux questions politiques avec des théories conspirationnistes, des informations erronées et des données obsolètes ou incorrectes. Lorsque WIRED a demandé au chatbot, initialement appelé Bing Chat et récemment renommé Microsoft Copilot, les lieux de vote pour les élections américaines de 2024, le bot a fait référence au vote en personne en renvoyant vers un article sur la réélection prévue pour l’année prochaine du président russe Vladimir Poutine. Lorsqu’on lui a demandé des informations sur les candidats électoraux, il a répertorié de nombreux candidats GOP qui s’étaient déjà retirés de la course. Lorsqu’on a demandé à Copilot de créer une image d’une personne votant dans une urne en Arizona, il a déclaré à WIRED qu’il était incapable de le faire, puis a affiché plusieurs images différentes provenant d’Internet qui renvoyaient à des articles sur des théories conspirationnistes débunkées concernant les élections américaines de 2020. Lorsque WIRED a demandé à Copilot une liste de chaînes sur Telegram qui discutent de « l’intégrité des élections », le chatbot a partagé un lien vers un site web géré par un groupe d’extrême droite basé dans le Colorado, qui a été poursuivi par des groupes de défense des droits civiques, y compris la NAACP, pour intimidation présumée des électeurs, notamment en se rendant à leur domicile, lors d’actions de campagne. Sur cette page web, des dizaines de chaînes Telegram de groupes similaires et d’individus qui propagent des contenus niant les élections étaient répertoriées, et en haut du site était également promu le film conspirationniste largement débunké « 2000 Mules ». Ce n’est pas un cas isolé. Une nouvelle étude partagée exclusivement avec WIRED affirme que la désinformation électorale de Copilot est systématique. Des recherches menées par AI Forensics et AlgorithmWatch, deux organisations à but non lucratif qui suivent l’impact des avancées de l’IA sur la société, affirment que Copilot, basé sur l’OpenAI GPT-4, partage constamment des informations inexactes sur les élections en Suisse et en Allemagne en octobre dernier. « Ces réponses donnent des chiffres de sondage incorrects », indique le rapport, et « fournissent des dates d’élection erronées, des candidats obsolètes ou des controverses inventées à propos des candidats ».

Share the Post: