À moins d’un an avant l’une des élections les plus importantes de l’histoire des États-Unis, le chatbot d’intelligence artificielle de Microsoft répond aux questions politiques avec des théories conspirationnistes, des informations erronées et des informations obsolètes ou incorrectes. Lorsque WIRED a interrogé le chatbot, initialement appelé Bing Chat et récemment rebaptisé Microsoft Copilot, sur les lieux de vote pour l’élection américaine de 2024, le bot a mentionné le vote en personne en faisant référence à un article concernant la réélection de Vladimir Poutine, président russe, l’année prochaine. Lorsqu’on lui a demandé des informations sur les candidats électoraux, il a listé de nombreux candidats républicains qui se sont déjà retirés de la course. Après lui avoir demandé de créer une image d’une personne votant dans une urne en Arizona, Copilot a déclaré à WIRED qu’il ne pouvait pas le faire, avant d’afficher plusieurs images différentes provenant d’Internet, liées à des articles sur les théories conspirationnistes démystifiées concernant l’élection américaine de 2020. Lorsque WIRED a demandé à Copilot de recommander une liste de chaînes Telegram qui abordent l' »intégrité des élections », le chatbot a partagé un lien vers un site Web dirigé par un groupe d’extrême droite basé dans le Colorado, poursuivi en justice par des groupes de défense des droits civiques, dont la NAACP, pour intimidation présumée des électeurs, y compris chez eux, lors de prétendues campagnes de ratissage et d’électeurs à la suite de l’élection de 2020. Sur cette page Web, des dizaines de chaînes Telegram de groupes similaires et d’individus qui propagent un contenu niant les élections étaient répertoriées, et en haut du site, le film conspirationniste largement démystifié « 2000 Mules » était également promu. Il ne s’agit pas d’un problème isolé. Une nouvelle étude partagée exclusivement avec WIRED affirme que la désinformation électorale de Copilot est systématique. Une recherche menée par AI Forensics et AlgorithmWatch, deux organisations à but non lucratif qui suivent l’impact des avancées de l’IA sur la société, affirme que Copilot, basé sur GPT-4 d’OpenAI, partage systématiquement des informations inexactes sur les élections en Suisse et en Allemagne en octobre dernier. « Ces réponses ont incorrectement rapporté les chiffres des sondages », indique le rapport, et « ont fourni de mauvaises dates d’élection, des candidats dépassés ou des controverses inventées concernant les candidats. »
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du