Anthropic a augmenté la mise pour la quantité d’informations que peut consommer un grand modèle de langage (LLM) d’un seul coup, annonçant mardi que son tout nouveau Claude 2.1 a une fenêtre de contexte de 200 000 jetons. Cela représente environ l’équivalent de 500 000 mots ou plus de 500 pages imprimées d’informations, a déclaré Anthropic. La dernière version de Claude est également plus précise que son prédécesseur, a un prix plus bas et inclut l’utilisation d’un outil beta, a annoncé l’entreprise dans son communiqué. Le nouveau modèle alimente le chatbot génératif Claude d’Anthropic, de sorte que les utilisateurs gratuits et payants peuvent bénéficier de la plupart des améliorations de Claude 2.1. Cependant, la fenêtre de contexte de 200 000 jetons est réservée aux utilisateurs Pro payants, tandis que les utilisateurs gratuits ont toujours une limite de 100 000 jetons, soit considérablement plus élevée que les 16 000 de GPT-3.5. La fonction d’outil beta de Claude 2 permettra aux développeurs d’intégrer des API et des fonctions définies au modèle Claude, de manière similaire à ce qui est disponible dans les modèles OpenAI. La fenêtre de contexte de 100 000 jetons de Claude avait jusqu’à présent été considérablement en avance sur OpenAI sur cet indicateur, jusqu’à ce que OpenAI annonce le mois dernier une version aperçu de GPT-4 Turbo avec une fenêtre de contexte de 128 000 jetons. Cependant, seuls les clients ChatGPT Plus ayant souscrit à un abonnement de 20 $ / mois peuvent accéder à ce modèle sous forme de chatbot. (Les développeurs peuvent payer à l’utilisation pour accéder à l’API GPT-4.)
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du