OpenAI présente GPT-4 Turbo : une plus grande mémoire, un coût réduit, de nouvelles connaissances

Lundi, lors de l’événement OpenAI DevDay, le PDG de la société Sam Altman a annoncé une mise à jour importante de son modèle de langage GPT-4 appelé GPT-4 Turbo, qui peut traiter une quantité beaucoup plus importante de texte que GPT-4 et présente une coupure de connaissances au 20 avril 2023. Il a également présenté des API pour DALL-E 3, GPT-4 Vision et la synthèse vocale, et lancé une « API d’assistants » qui facilite la création d’applications d’IA d’aide par les développeurs. OpenAI a organisé son premier événement pour les développeurs le 6 novembre à San Francisco, intitulé DevDay. Lors du discours d’ouverture prononcé par Altman devant un petit public, le PDG a présenté les impacts plus larges de sa technologie d’IA dans le monde, notamment en aidant les personnes en situation de handicap à l’accessibilité numérique. Altman a partagé quelques statistiques, affirmant que plus de 2 millions de développeurs créent des applications en utilisant ses API, que plus de 92% des 500 entreprises les plus importantes du Fortune 500 construisent sur leur plateforme, et que ChatGPT compte plus de 100 millions d’utilisateurs actifs par semaine. À un moment donné, le PDG de Microsoft, Satya Nadella, est apparu sur scène de manière inattendue, discutant avec Altman de l’approfondissement de la partnership entre Microsoft et OpenAI et partageant quelques réflexions générales sur l’avenir de la technologie, qu’il pense permettra aux gens de se sentir plus empowerés. Au cours du discours, Altman a fait plusieurs annonces importantes, notamment les « GPT », qui sont des rôles d’IA personnalisés, partageables et définis par l’utilisateur que nous avons couverts séparément dans un autre article. Il a également lancé le modèle GPT-4 Turbo mentionné précédemment, qui se distingue surtout par trois propriétés : la longueur du contexte, les connaissances plus à jour et le prix. Les modèles de langage de grande taille (LLM) comme GPT-4 reposent sur une longueur de contexte ou une « fenêtre de contexte » qui définit la quantité de texte qu’ils peuvent traiter en une seule fois. Cette fenêtre est souvent mesurée en jetons, qui sont des morceaux de mots. Selon OpenAI, un jeton correspond approximativement à quatre caractères d’anglais, soit environ trois quarts de mot. Cela signifie que GPT-4 Turbo peut prendre en compte environ 96 000 mots en une seule fois, ce qui est plus long que de nombreux romans. En outre, une longueur de contexte de 128K peut conduire à des conversations beaucoup plus longues sans que l’assistant IA n’oublie sa mémoire à court terme du sujet en question.

Share the Post: