« Les modèles d’IA qui font des hallucinations » aident à créer le mot du dictionnaire de Cambridge de l’année

Le mercredi, le dictionnaire Cambridge a annoncé que son mot de l’année 2023 est «halluciner», en raison de la popularité des grands modèles de langage (LLM) tels que ChatGPT, qui produisent parfois des informations erronées. Le dictionnaire a également publié un site illustré expliquant le terme, disant: «Lorsqu’une intelligence artificielle hallucine, elle produit des informations fausses.» «L’équipe du dictionnaire Cambridge a choisi halluciner comme son mot de l’année 2023 car elle a reconnu que le nouveau sens allait au cœur de la raison pour laquelle les gens parlent d’IA», écrit le dictionnaire. «L’IA générative est un outil puissant, mais que nous apprenons tous encore à utiliser de manière sûre et efficace – cela signifie être conscient de ses potentiels atouts et de ses faiblesses actuelles.» Comme nous l’avons précédemment couvert dans divers articles, «l’hallucination» en relation avec l’IA a d’abord été un terme d’art dans l’espace d’apprentissage automatique. Lorsque les LLM sont entrés dans l’usage courant à travers des applications telles que ChatGPT à la fin de l’année dernière, le terme s’est échappé dans l’usage général et a commencé à causer la confusion parmi certains, qui l’ont vu comme une anthropomorphisme inutile. La première définition du dictionnaire Cambridge d’hallucination (pour les humains) est «sembler voir, entendre, ressentir ou sentir quelque chose qui n’existe pas». Elle implique une perception d’une conscience, et certains s’y opposent. Comme tous les mots, sa définition emprunte beaucoup au contexte. Lorsque les chercheurs en apprentissage automatique utilisent le terme hallucination (ce qu’ils font encore fréquemment, d’après les rapports de recherche), ils comprennent généralement les limites d’un LLM – par exemple, que le modèle d’IA n’est pas vivant ou «conscient» selon les standards humains – mais le grand public ne le sait peut-être pas. Ainsi, dans une fonctionnalité explorant en profondeur les hallucinations plus tôt cette année, nous avons suggéré un autre terme, «confabulation», qui décrit peut-être plus précisément le principe de remplissage des lacunes créatives des modèles d’IA en action sans le bagage de la perception. (Et devinez quoi – c’est aussi dans le dictionnaire de Cambridge.)

Share the Post: