Google déploie deux nouveaux grands modèles de langage ouverts (LLMs) appelés Gemma 2B et Gemma 7B, construits en utilisant la même recherche et technologie qui ont aidé à construire le projet Gemini de Google. Contrairement à Gemini, cependant, ce sont des modèles de décodeur définis qui sont « légers » et se concentrent uniquement sur la génération de texte à texte. Gemma 2B et Gemma 7B sont tous deux conçus avec des poids ouverts, des variantes pré-entraînées et des variantes ajustées aux instructions. Comme pour d’autres modèles de langage, Google a déclaré que ses nouvelles offres conviennent parfaitement aux tâches de génération de texte telles que répondre à des questions et résumer des informations, bien qu’elles offrent ces fonctionnalités dans un package beaucoup plus petit et plus facile à déployer. Comme Gemma est construit sur une taille de modèle plus petite, les utilisateurs peuvent les utiliser facilement dans des environnements aux ressources limitées. Ces environnements pourraient inclure des ordinateurs portables, des ordinateurs de bureau ou des infrastructures cloud individuelles. « L’annonce de Google concernant Gemma 2B et 7B est un signe des capacités croissantes des plus petits modèles de langage », a déclaré Victor Botev, CTO d’Iris.ai, à ITPro.
Équilibrer la Numérisation et la Sobriété Numérique dans la Formation Professionnelle : Solutions Actuelles et Besoins Émergents
La formation professionnelle tout au long de la vie (FTLV) connaît une transformation significative dans le contexte actuel de numérisation