Le PDG de Pinecone est à la recherche de quelque chose comme de la connaissance de l’IA.

Les programmes d’IA générative comme ChatGPT produisent des «hallucinations», c’est-à-dire des affirmations fausses présentées comme des faits, car ces programmes ne sont pas conçus pour «savoir» quoi que ce soit; ils sont simplement conçus pour générer une suite de caractères qui soit une continuation plausible de ce que vous avez juste tapé. «Si je pose une question sur la médecine ou le droit ou une question technique, le LLM [grand modèle linguistique] n’aura pas ces informations, surtout si elles sont confidentielles», a déclaré Edo Liberty, PDG et fondateur de la jeune pousse Pinecone, lors d’une récente interview avec ZDNET. «Alors il inventera quelque chose, ce que nous appelons des hallucinations.» La société de Liberty, une entreprise de logiciels de quatre ans basée à New York financée par des investisseurs, se spécialise dans ce que l’on appelle une base de données vectorielle. La société a reçu 138 millions de dollars de financement pour sa quête du Graal de l’IA générative: quelque chose de plus autoritaire, ressemblant plus à un savoir effectif. Aussi: À la recherche de la pièce manquante de l’IA générative: les données non structurées «La bonne chose à faire, c’est, lorsque vous avez une requête, un déclencheur, d’aller chercher les informations pertinentes dans la base de données vectorielle, de les mettre dans la fenêtre de contexte, et soudainement votre requête ou votre interaction avec le modèle linguistique est beaucoup plus efficace», a expliqué Liberty.

Share the Post: