Microsoft présente Phi-2, un petit modèle de langage qui a du punch.

Quand vous pensez aux modèles de langage en relation avec l’intelligence artificielle générative (IA), le premier terme qui vous vient probablement à l’esprit est le grand modèle de langage (LLM). Ces LLM alimentent la plupart des chatbots populaires, tels que ChatGPT, Bard et Copilot. Cependant, le nouveau modèle de langage de Microsoft est là pour montrer que les petits modèles de langage (SLM) ont également beaucoup de promesses dans l’espace de l’IA générative. Mercredi, Microsoft a publié Phi-2, un petit modèle de langage capable de raisonnement et de compréhension du langage basés sur le bon sens, et il est maintenant disponible dans le catalogue de modèles Azure AI Studio. De plus : IA en 2023 : une année de percées qui n’a laissé aucune chose humaine inchangée Ne laissez pas le mot petit vous tromper, cependant. Phi-2 empaquette 2,7 milliards de paramètres dans son modèle, ce qui représente une grosse progression par rapport à Phi-1.5, qui en comptait 1,3 milliard. Malgré son compactage, Phi-2 a présenté une « performance de pointe » parmi les modèles de langage ayant moins de 13 milliards de paramètres, et il a même surpassé des modèles jusqu’à 25 fois plus grands sur des benchmarks complexes, selon Microsoft.

Share the Post: