Êtes-vous prêt à accroître la visibilité de votre marque? Devenez un commanditaire du AI Impact Tour. En savoir plus sur les opportunités ici. Alors que le monde assiste au struggle du pouvoir et à la démission de masse à OpenAI, Microsoft, le soutien de longue date de la grande entreprise d’IA, ne ralentit pas ses propres efforts en IA. Aujourd’hui, le bras de recherche de la société de Satya Nadella a publié Orca 2, un ensemble de petits modèles de langage qui égalent ou surpassent de 5 à 10 fois les modèles de langage plus grands, y compris Llama-2 Chat-70B de Meta, lorsqu’ils sont testés sur des tâches de raisonnement complexes dans des environnements sans données d’entraînement. Les modèles existent en deux tailles, 7 milliards et 13 milliards de paramètres, et reposent sur le travail effectué sur le modèle Orca original de 13B qui a démontré de solides capacités de raisonnement en imitant les traces de raisonnement pas à pas de modèles plus gros et plus capables il y a quelques mois. « Avec Orca 2, nous continuons à montrer que des signaux et des méthodes d’entraînement améliorés peuvent donner aux modèles de langage plus petits les capacités de raisonnement améliorées, généralement trouvées uniquement dans les modèles de langage beaucoup plus grands », ont écrit les chercheurs de Microsoft dans un message blog conjoint.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du