Google déploie deux nouveaux grands modèles de langage ouverts (LLMs) appelés Gemma 2B et Gemma 7B, construits en utilisant la même recherche et technologie qui ont aidé à construire le projet Gemini de Google. Contrairement à Gemini, cependant, ce sont des modèles de décodeur définis qui sont « légers » et se concentrent uniquement sur la génération de texte à texte. Gemma 2B et Gemma 7B sont tous deux conçus avec des poids ouverts, des variantes pré-entraînées et des variantes ajustées aux instructions. Comme pour d’autres modèles de langage, Google a déclaré que ses nouvelles offres conviennent parfaitement aux tâches de génération de texte telles que répondre à des questions et résumer des informations, bien qu’elles offrent ces fonctionnalités dans un package beaucoup plus petit et plus facile à déployer. Comme Gemma est construit sur une taille de modèle plus petite, les utilisateurs peuvent les utiliser facilement dans des environnements aux ressources limitées. Ces environnements pourraient inclure des ordinateurs portables, des ordinateurs de bureau ou des infrastructures cloud individuelles. « L’annonce de Google concernant Gemma 2B et 7B est un signe des capacités croissantes des plus petits modèles de langage », a déclaré Victor Botev, CTO d’Iris.ai, à ITPro.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du