Réduction des hallucinations liées à l’IA : deux cerveaux valent mieux qu’un

Alors que l’IA générative (genAI) continue de se répandre parmi le grand public et les entreprises, son adoption est parfois entravée par des erreurs, des problèmes de violation de droits d’auteur et des hallucinations flagrantes, sapant ainsi la confiance dans sa précision. Une étude de l’Université de Stanford a révélé que genAI commet des erreurs dans 75% des cas lorsqu’il répond à des questions juridiques. « Par exemple », indique l’étude, « dans une tâche mesurant la relation de précédence entre deux affaires judiciaires différentes, la plupart des LLM (grands modèles de langage) ne font pas mieux que le hasard ».
Le problème est que les grands modèles de langage (LLM) derrière la technologie genAI, tels que le GPT-4 d’OpenAI, le Llama 2 de Meta et le PaLM 2 de Google, ne sont pas seulement amorphes avec des paramètres non spécifiques, mais ils sont également entraînés par des êtres humains faillibles qui ont des biais innés.
Les LLM ont été caractérisés comme des perroquets stochastiques – plus ils grandissent, plus ils deviennent aléatoires dans leurs réponses conjecturales ou aléatoires. Ces « moteurs de prédiction du mot suivant » continuent de répéter ce qu’ils ont appris, mais sans cadre logique.
Une méthode pour réduire les hallucinations et les autres erreurs liées à genAI est la Génération Augmentée par Récupération ou « RAG » – une méthode de création d’un modèle genAI plus personnalisé permettant des réponses plus précises et spécifiques aux requêtes.

Share the Post: