Microsoft a annoncé la prochaine de sa suite de modèles d’intelligence artificielle (IA) plus petits et plus agiles ciblant des cas d’utilisation plus spécifiques. Au début de ce mois, Microsoft a présenté Phi-1, le premier de ce qu’il appelle les petits modèles de langage (SLM); Ils ont beaucoup moins de paramètres que leur prédécesseur grand modèle de langage (LLM). Par exemple, le GPT-3 LLM – la base du ChatGPT – a 175 milliards de paramètres. GPT-4, le dernier LLM d’OpenAI, en a environ 1,7 trillion. Phi-1 a été suivi par Phi-1,5, qui, en comparaison, en a 1,3 milliard. Phi-2 est un modèle de langage à 2,7 milliards de paramètres que la société prétend pouvoir surpasser les LLM jusqu’à 25 fois plus grands. Microsoft est un important actionnaire et partenaire d’OpenAI, le développeur de ChatGPT, lancé il y a un peu plus d’un an. Microsoft utilise ChatGPT comme base de son assistant génératif Copilot. Les LLM utilisés pour l’IA générative (genAI), comme chatGPT ou Bard, peuvent consommer d’immenses cycles de processeur et être coûteux et chronophages à former pour des cas d’utilisation spécifiques en raison de leur taille. Les modèles plus petits et plus centrés sur l’industrie ou les entreprises peuvent souvent fournir de meilleurs résultats adaptés aux besoins des entreprises.
Équilibrer la Numérisation et la Sobriété Numérique dans la Formation Professionnelle : Solutions Actuelles et Besoins Émergents
La formation professionnelle tout au long de la vie (FTLV) connaît une transformation significative dans le contexte actuel de numérisation