L’Anthropic Claude 2.1 LLM turbocharge les performances, offre l’utilisation de l’outil beta

L’anthropique a augmenté la mise en ce qui concerne le nombre d’informations que peut consommer un grand modèle de langage (LLM) d’un seul coup, annonçant mardi que son Claude 2.1 vient d’être publié avec une fenêtre de contexte de 200 000 jetons. Cela correspond approximativement à 500 000 mots ou à plus de 500 pages imprimées d’informations, a déclaré Anthropic. La dernière version de Claude est également plus précise que son prédécesseur, plus abordable et inclut des outils beta, a indiqué l’entreprise dans son annonce. Le nouveau modèle alimente le chatbot génératif Claude d’Anthropic, de sorte que les utilisateurs gratuits et payants peuvent profiter des améliorations de Claude 2.1. Cependant, la fenêtre de contexte de 200 000 jetons est disponible uniquement pour les utilisateurs Pro payants, tandis que les utilisateurs gratuits ont toujours une limite de 100 000 jetons, soit considérablement plus élevée que celle de GPT-3.5, qui est de 16 000. La fonctionnalité d’outil beta de Claude 2 permettra aux développeurs d’intégrer des API et des fonctions définies au modèle Claude, de manière similaire à ce qui est proposé dans les modèles d’OpenAI. La fenêtre de contexte de 100 000 jetons de Claude était jusqu’à présent considérablement devant OpenAI sur ce metric, jusqu’à ce que OpenAI annonce le mois dernier une version préliminaire de GPT-4 Turbo avec une fenêtre de contexte de 128 000 jetons. Cependant, seuls les clients ChatGPT Plus ayant souscrit à un abonnement mensuel de 20 $ peuvent y accéder sous forme de chatbot. (Les développeurs peuvent payer à l’usage pour accéder à l’API GPT-4.)

Share the Post: