L’Anthropic Claude 2.1 LLM turbocompresse les performances et offre l’utilisation d’outils bêta.

L’annonce d’Anthropic mardi dernier a fait monter les enchères en ce qui concerne la quantité d’informations que peut consommer un grand modèle de langage (LLM). Claude 2.1 peut en effet traiter 200 000 jetons en une fois, ce qui correspond approximativement à 500 000 mots ou à plus de 500 pages imprimées. Anthropic a également annoncé que ce nouveau Claude était plus précis que son prédécesseur, moins cher et qu’il incluait des outils en version bêta. Ces améliorations sont disponibles pour les utilisateurs gratuits et payants du chatbot Claude. Cependant, la fenêtre de contexte de 200 000 jetons est réservée aux utilisateurs Pro, tandis que les utilisateurs gratuits ont toujours une limite de 100 000 jetons, nettement supérieure aux 16 000 de GPT-3.5. La fonctionnalité d’outil en version bêta de Claude 2 permettra aux développeurs d’intégrer des API et des fonctions définies au modèle Claude, de manière similaire à ce qui est déjà disponible dans les modèles d’OpenAI. La fenêtre de contexte de 100 000 jetons de Claude était jusqu’à présent nettement supérieure à celle d’OpenAI, jusqu’à ce que ce dernier annonce le mois dernier une version préliminaire de GPT-4 Turbo avec une fenêtre de contexte de 128 000 jetons. Cependant, seuls les clients ChatGPT Plus abonnés à 20 $/mois peuvent accéder à ce modèle sous forme de chatbot. (Les développeurs peuvent payer à l’utilisation pour accéder à l’API GPT-4.)

Share the Post: