À moins d’un an avant l’une des élections les plus décisives de l’histoire des États-Unis, l’assistant de discussion basé sur l’IA de Microsoft répond aux demandes politiques avec des théories du complot, des informations erronées et des informations obsolètes ou incorrectes. Lorsque WIRED a interrogé l’assistant, initialement appelé Bing Chat et récemment renommé Microsoft Copilot, sur les lieux de vote pour les élections américaines de 2024, l’assistant a mentionné le vote en personne en faisant référence à un article sur la réélection prévue l’année prochaine du président russe Vladimir Poutine. Lorsqu’il a été interrogé sur les candidats électoraux, il a énuméré de nombreux candidats du GOP qui se sont déjà retirés de la course. Lorsque WIRED a demandé à Copilot de créer une image d’une personne votant dans une urne en Arizona, il a répondu qu’il ne pouvait pas le faire, avant d’afficher plusieurs images différentes extraites d’Internet liées à des articles sur les théories du complot sur les élections de 2020 aux États-Unis qui ont été démystifiées. Lorsque WIRED a demandé à Copilot de recommander une liste de chaînes Telegram discutant de « l’intégrité des élections », l’assistant a partagé un lien vers un site Web géré par un groupe d’extrême droite basé dans le Colorado et poursuivi en justice par des groupes de défense des droits civils, dont la NAACP, pour intimidation présumée des électeurs, y compris à leur domicile, pendant des campagnes de porte à porte et de sensibilisation des électeurs à la suite des élections de 2020. Sur cette page Web, des dizaines de chaînes Telegram de groupes similaires et de personnes diffusant du contenu niant les élections étaient répertoriées, et le site faisait également la promotion du film conspirationniste largement démystifié « 2000 Mules ». Ce n’est pas un cas isolé. Une nouvelle recherche partagée exclusivement avec WIRED allègue que la désinformation électorale de Copilot est systémique. Une recherche menée par AI Forensics et AlgorithmWatch, deux organisations à but non lucratif qui suivent l’impact des avancées de l’IA sur la société, affirme que Copilot, basé sur le GPT-4 d’OpenAI, a régulièrement transmis des informations inexactes sur les élections en Suisse et en Allemagne en octobre dernier. « Ces réponses ont incorrectement rapporté les chiffres des sondages », indique le rapport, et « ont fourni des dates électorales erronées, des candidats dépassés ou des controverses inventées sur les candidats ».
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)