Le lundi 6 novembre, lors de l’événement DevDay d’OpenAI, le PDG de la société, Sam Altman, a annoncé une importante mise à jour de son modèle de langage GPT-4 appelé GPT-4 Turbo, qui peut traiter beaucoup plus de texte que GPT-4 et présente une coupure de connaissances au 20 avril 2023. Il a également introduit des API pour DALL-E 3, GPT-4 Vision et text-to-speech, et lancé une «API d’assistants» qui facilite la création d’applications d’IA assistée par les développeurs. OpenAI a organisé son premier événement pour les développeurs le 6 novembre à San Francisco, baptisé DevDay. Lors de la conférence d’ouverture prononcée par Altman devant un petit public, le PDG a présenté les impacts plus larges de sa technologie IA dans le monde, y compris en aidant les personnes souffrant de handicaps d’accès aux technologies. Altman a partagé quelques statistiques, affirmant que plus de 2 millions de développeurs créent des applications en utilisant ses API, que plus de 92% des 500 entreprises les plus importantes du classement Fortune construisent sur leur plateforme, et que ChatGPT compte plus de 100 millions d’utilisateurs actifs par semaine. À un moment donné, le PDG de Microsoft, Satya Nadella, est apparu sur scène de manière inattendue, discutant avec Altman de l’approfondissement de la partnership entre Microsoft et OpenAI et partageant quelques réflexions générales sur l’avenir de la technologie, qu’il pense permettra aux gens de se sentir plus empowerment. Au cours de la conférence, Altman a fait plusieurs annonces majeures, dont les «GPTs», qui sont des rôles d’IA de ChatGPT personnalisés, partageables et définis par l’utilisateur, que nous avons couverts séparément dans un autre article. Il a également lancé le modèle GPT-4 Turbo susmentionné, qui se distingue peut-être par trois propriétés: la longueur du contexte, les connaissances plus à jour et le prix. Les modèles de langage larges (LLM) comme GPT-4 reposent sur une longueur de contexte ou une «fenêtre de contexte» qui définit la quantité de texte qu’ils peuvent traiter en une seule fois. Cette fenêtre est souvent mesurée en jetons, qui sont des blocs de mots. Selon OpenAI, un jeton correspond environ à quatre caractères d’anglais, soit environ trois quarts d’un mot. Cela signifie que GPT-4 Turbo peut prendre en compte environ 96 000 mots en une seule fois, ce qui est plus long que de nombreux romans. De plus, une longueur de contexte de 128K peut conduire à des conversations beaucoup plus longues sans que l’assistant IA n’oublie sa mémoire à court terme du sujet en question.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du