Microsoft a annoncé la sortie de la prochaine de sa suite de modèles d’intelligence artificielle (IA) plus petits et plus agiles ciblant des cas d’utilisation plus spécifiques. Au début de ce mois, Microsoft a dévoilé Phi-1, le premier de ce qu’il appelle les petits modèles de langage (SLM); ils ont beaucoup moins de paramètres que leur prédécesseur de grand modèle de langage (LLM). Par exemple, le GPT-3 LLM – la base du ChatGPT – a 175 milliards de paramètres. GPT-4, le dernier LLM d’OpenAI, en a environ 1,7 trillion. Phi-1 a été suivi par Phi-1,5, qui, par comparaison, en a 1,3 milliard. Phi-2 est un modèle de langage à 2,7 milliards de paramètres que la société prétend pouvoir surpasser les LLM jusqu’à 25 fois plus importants. Microsoft est un important actionnaire et partenaire d’OpenAI, le développeur de ChatGPT, lancé il y a un peu plus d’un an. Microsoft utilise ChatGPT comme base pour son assistant Copilot génératif IA. Les LLM utilisés pour les applications IA génératives (genAI) telles que chatGPT ou Bard peuvent consommer d’importantes quantités de cycles de processeur et être coûteux et longs à former pour des cas d’utilisation spécifiques en raison de leur taille. Les modèles plus petits et plus axés sur l’industrie ou les entreprises peuvent souvent fournir de meilleurs résultats adaptés aux besoins des entreprises.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)