Des modèles d’IA «hallucinants» aident à créer le mot de l’année du dictionnaire de Cambridge

Mercredi, le dictionnaire de Cambridge a annoncé que son mot de l’année 2023 était «halluciner», en raison de la popularité des grands modèles linguistiques (LLM) comme ChatGPT, qui produisent parfois des informations erronées. Le Dictionnaire a également publié un site illustré expliquant le terme, disant: «Lorsqu’une intelligence artificielle hallucine, elle produit des informations fausses.» «L’équipe du dictionnaire de Cambridge a choisi halluciner comme son mot de l’année 2023 car elle a reconnu que le nouveau sens arrive au cœur de la raison pour laquelle les gens parlent d’IA», écrit le dictionnaire. «L’IA générative est un outil puissant, mais un outil que nous apprenons tous encore à utiliser en toute sécurité et efficacement, ce qui signifie être conscient à la fois de ses potentiels atouts et de ses faiblesses actuelles.» Comme nous l’avons déjà couvert dans divers articles, «hallucination» en relation avec l’IA a été à l’origine un terme technique dans le domaine de l’apprentissage machine. Lorsque les LLM sont entrés dans l’usage courant à travers des applications comme ChatGPT à la fin de l’année dernière, le terme s’est propagé dans l’usage général et a commencé à susciter la confusion chez certains, qui l’ont considéré comme une anthropomorphisme inutile. La première définition de Cambridge Dictionary pour «hallucination» (pour les humains) est «sembler voir, entendre, ressentir ou sentir quelque chose qui n’existe pas». Elle implique une perception d’une conscience humaine, et certains s’y opposent. Comme tous les mots, sa définition emprunte beaucoup au contexte. Lorsque les chercheurs en apprentissage machine utilisent le terme «hallucination» (ce qu’ils font encore fréquemment, comme en témoignent les travaux de recherche), ils comprennent généralement les limites d’un LLM – par exemple, que le modèle d’IA n’est pas «conscient» selon les standards humains – mais le grand public ne le comprend peut-être pas. Ainsi, dans un article explorant en profondeur les hallucinations plus tôt cette année, nous avons suggéré un autre terme, «confabulation», qui décrit peut-être plus précisément le principe de remplissage de lacunes créatif des modèles d’IA en action, sans le bagage de la perception. (Et devinez quoi – c’est aussi dans le dictionnaire de Cambridge.)

Share the Post: