Les programmes de génération de l’IA, comme ChatGPT, produisent des « hallucinations », c’est-à-dire des affirmations de faussetés prises pour des faits, car ces programmes ne sont pas conçus pour « savoir » quoi que ce soit ; ils sont simplement programmés pour produire une suite de caractères qui soit une suite plausible de ce que vous venez juste d’écrire. « Si je pose une question sur la médecine ou le droit ou une question technique, le LLM [grand modèle linguistique] n’aura pas ces informations, surtout si elles sont propriétaires », a déclaré Edo Liberty, PDG et fondateur de la jeune pousse Pinecone, dans une récente interview avec ZDNET. « Alors il inventera quelque chose, ce que nous appelons des hallucinations. » La société de Liberty, une entreprise de logiciels créée il y a quatre ans à New York financée par des fonds d’investissement, se spécialise dans ce qu’on appelle une base de données vectorielle. La société a reçu 138 millions de dollars de financement pour tenter de rattacher la production simplement plausible de l’IA générative à quelque chose de plus autoritaire, quelque chose qui ressemble plus à des connaissances effectives. Aussi : À la recherche de la pièce manquante de l’intelligence artificielle générative : les données non structurées « La bonne chose à faire, c’est, quand vous avez une requête, un déclencheur, aller chercher les informations pertinentes dans la base de données vectorielle, les mettre dans la fenêtre de contexte, et soudainement votre requête ou votre interaction avec le modèle linguistique est beaucoup plus efficace », a expliqué Liberty.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)