Anthropic’s Claude 2.1 LLM turbocharges performance, offers beta tool use

Anthropic a augmenté la mise pour la quantité d’informations que peut consommer un grand modèle de langage (LLM) en une seule fois, annonçant mardi que son nouveau Claude 2.1 a une fenêtre de contexte de 200 000 jetons. Cela représente environ l’équivalent de 500 000 mots ou plus de 500 pages imprimées d’informations, a déclaré Anthropic. La dernière version de Claude est également plus précise que son prédécesseur, moins chère et comprend une utilisation d’outils en version bêta, a déclaré l’entreprise dans son annonce. Le nouveau modèle alimente le chatbot génératif Claude d’Anthropic, de sorte que les utilisateurs gratuits et payants peuvent bénéficier de la plupart des améliorations de Claude 2.1. Cependant, la fenêtre de contexte de 200 000 jetons est réservée aux utilisateurs Pro payants, tandis que les utilisateurs gratuits ont toujours une limite de 100 000 jetons, soit considérablement plus élevée que les 16 000 de GPT-3.5. La fonction d’outil en version bêta de Claude 2 permettra aux développeurs d’intégrer des API et des fonctions définies au modèle Claude, de manière similaire à ce qui est disponible dans les modèles OpenAI. La fenêtre de contexte de 100 000 jetons de Claude précédente était considérablement en avance sur OpenAI sur ce metric jusqu’au mois dernier, lorsque OpenAI a annoncé une version de prévisualisation de GPT-4 Turbo avec une fenêtre de contexte de 128 000 jetons. Cependant, seuls les clients ChatGPT Plus ayant souscrit à un abonnement de 20 $ / mois peuvent accéder à ce modèle sous forme de chatbot. (Les développeurs peuvent payer à l’utilisation pour accéder à l’API GPT-4.)

Share the Post: