Les chatbots d’IA, connus pour leur tendance à halluciner, peuvent également induire les gens à halluciner, selon les chercheurs. Plus précisément, les interactions avec les chatbots peuvent augmenter la formation de faux souvenirs lorsque les modèles d’IA désinforment. Des informaticiens du MIT et de l’Université de Californie, Irvine, ont récemment décidé d’explorer l’impact des chatbots d’IA sur la mémoire humaine, citant un ensemble croissant de travaux sur l’interaction entre l’IA et les humains et le nombre croissant de situations où les gens interagissent avec des chatbots. En examinant spécifiquement la possibilité d’utiliser un agent d’IA lors d’un entretien avec un témoin de crime – pratique non courante à notre connaissance – les auteurs décrivent leurs conclusions dans un article pré-imprimé intitulé « Les IA conversationnelles alimentées par de grands modèles de langage ont amplifié les faux souvenirs dans les interviews de témoins ». Une préoccupation particulière est le potentiel dangereux pour l’IA de contribuer à la formation de faux souvenirs.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du