Le mercredi, le dictionnaire Cambridge a annoncé que son mot de l’année 2023 était «halluciner», en raison de la popularité des grands modèles linguistiques (LLMs) comme ChatGPT, qui produisent parfois des informations erronées. Le dictionnaire a également publié un site illustré expliquant le terme, disant: «Lorsqu’une intelligence artificielle hallucine, elle produit des informations fausses». «L’équipe du dictionnaire Cambridge a choisi halluciner comme son mot de l’année 2023 car elle a reconnu que le nouveau sens allait au cœur de la raison pour laquelle les gens parlent d’IA», écrit le dictionnaire. «L’IA générative est un outil puissant, mais que nous apprenons tous encore à utiliser de manière sûre et efficace – cela signifie être conscient de ses potentiels atouts et de ses faiblesses actuelles». Comme nous l’avons précédemment couvert dans divers articles, «l’hallucination» en rapport avec l’IA est apparue comme un terme d’art dans le domaine de l’apprentissage automatique. Lorsque les LLM sont entrés dans l’usage courant à travers des applications comme ChatGPT à la fin de l’année dernière, le terme s’est répandu dans l’usage courant et a commencé à provoquer des confusion chez certains, qui l’ont perçu comme une anthropomorphisme inutile. La première définition du dictionnaire Cambridge d’hallucination (pour les humains) est «avoir l’impression de voir, d’entendre, de ressentir ou de sentir quelque chose qui n’existe pas». Elle implique une perception d’une conscience humaine, et certains s’y opposent. Comme tous les mots, sa définition emprunte beaucoup au contexte. Lorsque les chercheurs en apprentissage automatique utilisent le terme hallucination (ce qu’ils font encore fréquemment, d’après les articles de recherche), ils comprennent généralement les limitations d’un LLM – par exemple, que le modèle d’IA n’est pas «conscient» selon les standards humains – mais le grand public ne le sait peut-être pas. Ainsi, dans un article en profondeur sur les hallucinations plus tôt cette année, nous avons suggéré un autre terme, «confabulation», qui décrit peut-être plus précisément le principe de remplissage de lacunes créatif des modèles d’IA en action sans le bagage de la perception. (Et devinez quoi – c’est aussi dans le dictionnaire Cambridge!)
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du