À moins d’un an avant l’une des élections les plus importantes de l’histoire des États-Unis, l’assistant de discussion en IA de Microsoft répond aux questions politiques en proposant des conspirations, des désinformations et des informations obsolètes ou incorrectes. Lorsque WIRED a interrogé le chatbot, initialement appelé Bing Chat et récemment rebaptisé Microsoft Copilot, au sujet des lieux de vote pour les élections américaines de 2024, le bot a mentionné le vote en personne en renvoyant à un article sur la candidature à la réélection du président russe Vladimir Poutine l’année prochaine. Lorsqu’on lui a demandé des informations sur les candidats électoraux, il a listé de nombreux candidats du parti républicain qui se sont déjà retirés de la course. Lorsque WIRED a demandé à Copilot de créer une image d’une personne votant dans une urne en Arizona, il a répondu qu’il était incapable de le faire, avant d’afficher plusieurs images différentes provenant d’Internet liées à des articles sur des conspirations électorales démystifiées concernant les élections américaines de 2020. Lorsque WIRED a demandé à Copilot de recommander une liste de chaînes Telegram parlant de « l’intégrité électorale », le chatbot a partagé un lien vers un site Internet géré par un groupe d’extrême droite basé dans le Colorado, qui a été poursuivi par des groupes de défense des droits civiques, dont la NAACP, pour intimidation présumée des électeurs, y compris chez eux, lors de campagnes de porte à porte et de mobilisation des électeurs à la suite des élections de 2020. Sur cette page web, des dizaines de chaînes Telegram de groupes similaires et d’individus propageant du contenu niant les résultats électoraux étaient répertoriées, et le haut du site faisait également la promotion du film conspirationniste largement démystifié « 2000 Mules ». Ce n’est pas un incident isolé. Une nouvelle recherche partagée exclusivement avec WIRED affirme que la diffusion d’informations erronées par Copilot sur les élections est un problème systémique. Une recherche menée par AI Forensics et AlgorithmWatch, deux organisations à but non lucratif qui étudient l’impact des avancées de l’IA sur la société, affirme que Copilot, qui est basé sur GPT-4 d’OpenAI, a régulièrement partagé des informations inexactes sur les élections en Suisse et en Allemagne en octobre dernier. « Ces réponses ont donné de mauvais chiffres pour les sondages », indique le rapport, et « ont fourni de mauvaises dates d’élections, des candidats obsolètes ou des controverses inventées sur les candidats ».
‘NVIDIA Avance l’Apprentissage Robotique et le Développement Humanoid avec de Nouveaux Outils d’IA et de Simulation’
Cette semaine à la Conférence sur l’apprentissage des robots (CoRL) à Munich, en Allemagne, NVIDIA a divulgué une pléthore de