L’une des startups les plus populaires sur le marché de l’IA générative (genAI), Anthropic, a mis à jour ses modèles phares vers une nouvelle norme 3.0, apportant des améliorations sur une gamme de tâches communes et une vitesse de traitement plus rapide. Les améliorations dans Claude 3 sont à large base, selon Anthropic. Le modèle offre maintenant moins de refus « incorrects » pour traiter des demandes inoffensives, une meilleure précision dans ses réponses, moins d’hallucinations, et une meilleure précision dans le traitement d’informations visuelles telles que des images et des schémas.
Anthropic propose désormais trois versions de l’IA Claude : l’Opus entièrement équipé, le Sonnet intermédiaire et le Haïku léger. Chaque version offre des scores de référence moyens différents sur diverses tâches, le Sonnet et le Haïku moins bien notés sacrifiant la précision pour des coûts moindres, sous forme de jetons AI moins chers pour les appels, et un temps de réponse plus rapide.
« Haïku est le modèle le plus rapide et le plus rentable sur le marché pour sa catégorie d’intelligence, » a déclaré Anthropic. « Il peut lire un article de recherche dense en informations et en données sur arXiv (~10 000 jetons) avec des graphiques en moins de trois secondes. Après le lancement, nous prévoyons d’améliorer encore les performances. »
La société a rapidement vanté son engagement envers le développement responsable de la genAI, affirmant qu’elle disposait d’équipes dédiées à plusieurs risques sérieux d’utilisation abusive, y compris l’ingérence électorale et la désinformation, la matière d’abus sexuel sur des enfants et la réplication autonome. Conformément aux directives émises l’an dernier par l’administration Biden, la société a déclaré avoir effectué de vastes exercices « d’équipe rouge » pour tester le potentiel d’utilisation malveillante de Claude.