Le PDG de Pinecone est à la recherche de quelque chose comme de la connaissance en matière d’IA.

‘ChatGPT et d’autres programmes d’IA générative créent des « hallucinations », des affirmations de faussetés prises pour des faits, car ces programmes ne sont pas conçus pour « savoir » quoi que ce soit; ils sont simplement conçus pour produire une suite de caractères qui soit une continuation plausible de ce que vous avez juste tapé. « Si je pose une question sur la médecine ou le droit ou une question technique, le LLM [large modèle de langage] n’aura pas ces informations, surtout si elles sont propriétaires », a déclaré Edo Liberty, PDG et fondateur de la jeune pousse Pinecone, dans une récente interview avec ZDNET. « Donc, il va juste inventer quelque chose, ce que nous appelons des hallucinations. » Liberty’s company, une société de logiciels de quatre ans basée à New York et financée par des investissements, se spécialise dans ce que l’on appelle une base de données vectorielle. La société a reçu 138 millions de dollars de financement pour la quête consistant à ancrer la production simplement plausible de l’IA générative dans quelque chose de plus autoritaire, quelque chose qui ressemble davantage à des connaissances réelles. Aussi: À la recherche de la pièce manquante de l’IA générative: les données non structurées « La bonne chose à faire est, lorsque vous avez la requête, le prompt, d’aller chercher les informations pertinentes dans la base de données vectorielle, de les mettre dans la fenêtre de contexte, et soudainement votre requête ou votre interaction avec le modèle de langage est beaucoup plus efficace », a expliqué Liberty.’

Share the Post: