Microsoft dévoile Phi-2, la prochaine de ses modèles de génération d’IA plus petits et plus agiles.

Microsoft a annoncé la suite suivante de ses modèles d’intelligence artificielle (IA) plus petits et plus agiles ciblant des cas d’utilisation plus spécifiques. Plus tôt ce mois-ci, Microsoft a présenté Phi-1, le premier de ce qu’il appelle les petits modèles de langage (SLM); ils ont beaucoup moins de paramètres que leur prédécesseur de grand modèle de langage (LLM). Par exemple, le GPT-3 LLM – la base du ChatGPT – a 175 milliards de paramètres. GPT-4, le dernier LLM d’OpenAI, a environ 1,7 trillion de paramètres. Phi-1 a été suivi de Phi-1,5, qui, par comparaison, a 1,3 milliard de paramètres. Phi-2 est un modèle de langage de 2,7 milliards de paramètres que la société affirme pouvoir surpasser les LLM jusqu’à 25 fois plus importants. Microsoft est un important actionnaire et partenaire d’OpenAI, le développeur de ChatGPT, lancé il y a un peu plus d’un an. Microsoft utilise ChatGPT comme base pour son assistant AI génératif Copilot. Les LLM utilisés pour les applications d’IA générative (genAI) telles que chatGPT ou Bard peuvent consommer d’énormes cycles de processeur et être coûteux et fastidieux à former pour des cas d’utilisation spécifiques en raison de leur taille. Les modèles plus petits et plus axés sur l’industrie ou les entreprises peuvent souvent fournir des résultats mieux adaptés aux besoins des entreprises.

Share the Post: