Les chatbots d’IA, connus pour leur tendance à halluciner, peuvent également induire les gens à halluciner, selon les chercheurs. Plus précisément, les interactions avec les chatbots peuvent augmenter la formation de faux souvenirs lorsque les modèles d’IA désinforment. Des informaticiens du MIT et de l’Université de Californie, Irvine, ont récemment décidé d’explorer l’impact des chatbots d’IA sur la mémoire humaine, citant un ensemble croissant de travaux sur l’interaction entre l’IA et les humains et le nombre croissant de situations où les gens interagissent avec des chatbots. En examinant spécifiquement la possibilité d’utiliser un agent d’IA lors d’un entretien avec un témoin de crime – pratique non courante à notre connaissance – les auteurs décrivent leurs conclusions dans un article pré-imprimé intitulé « Les IA conversationnelles alimentées par de grands modèles de langage ont amplifié les faux souvenirs dans les interviews de témoins ». Une préoccupation particulière est le potentiel dangereux pour l’IA de contribuer à la formation de faux souvenirs.
Claude.ai : Une plateforme d’intelligence artificielle innovante
Claude.ai est une plateforme web qui utilise l’intelligence artificielle pour offrir divers services aux utilisateurs. Bien que les informations disponibles