Les nouveaux modèles d’intelligence artificielle de Google, nommés ‘Gemma’, montrent que plus grand n’est pas toujours mieux.

Google déploie deux nouveaux grands modèles de langage ouverts (LLMs) appelés Gemma 2B et Gemma 7B, construits en utilisant la même recherche et technologie qui ont aidé à construire le projet Gemini de Google. Contrairement à Gemini, cependant, ce sont des modèles de décodeur définis qui sont « légers » et se concentrent uniquement sur la génération de texte à texte. Gemma 2B et Gemma 7B sont tous deux conçus avec des poids ouverts, des variantes pré-entraînées et des variantes ajustées aux instructions. Comme pour d’autres modèles de langage, Google a déclaré que ses nouvelles offres conviennent parfaitement aux tâches de génération de texte telles que répondre à des questions et résumer des informations, bien qu’elles offrent ces fonctionnalités dans un package beaucoup plus petit et plus facile à déployer. Comme Gemma est construit sur une taille de modèle plus petite, les utilisateurs peuvent les utiliser facilement dans des environnements aux ressources limitées. Ces environnements pourraient inclure des ordinateurs portables, des ordinateurs de bureau ou des infrastructures cloud individuelles. « L’annonce de Google concernant Gemma 2B et 7B est un signe des capacités croissantes des plus petits modèles de langage », a déclaré Victor Botev, CTO d’Iris.ai, à ITPro.

Share the Post: