Jeudi, la plateforme d’hébergement d’IA Hugging Face a dépassé pour la première fois le cap du million de listes de modèles d’IA, marquant une étape importante dans le domaine en expansion rapide de l’apprentissage automatique. Un modèle d’IA est un programme informatique (utilisant souvent un réseau neuronal) formé sur des données pour effectuer des tâches spécifiques ou faire des prédictions. La plateforme, qui a commencé comme une application de chatbot en 2016 avant de pivoter pour devenir un hub open source pour les modèles d’IA en 2020, héberge désormais une large gamme d’outils pour les développeurs et les chercheurs. Le domaine de l’apprentissage machine représente un univers beaucoup plus vaste que les grands modèles de langage (LLMs) comme ceux qui alimentent ChatGPT. Dans un article sur X, le PDG de Hugging Face, Clément Delangue, a écrit sur la façon dont sa société héberge de nombreux modèles d’IA de haut niveau, tels que « Llama, Gemma, Phi, Flux, Mistral, Starcoder, Qwen, Stable diffusion, Grok, Whisper, Olmo, Command, Zephyr, OpenELM, Jamba, Yi », mais aussi « 999 984 autres. » La raison, selon Delangue, provient de la personnalisation. « Contrairement à la fallacieuse idée selon laquelle ‘un modèle pour les gouverner tous,' » écrit-il, « des modèles plus petits, spécialisés, personnalisés et optimisés pour votre cas d’utilisation, votre domaine, votre langue, votre matériel et généralement vos contraintes sont meilleurs. En fait, quelque chose que peu de gens réalisent est qu’il existe presque autant de modèles sur Hugging Face qui sont uniquement privés à une seule organisation – pour que les entreprises construisent de l’IA en privé, spécifiquement pour leurs cas d’utilisation. » La transformation de Hugging Face en une importante plateforme d’IA suit le rythme accéléré de la recherche et du développement en IA dans l’industrie technologique. En seulement quelques années, le nombre de modèles hébergés sur le site a considérablement augmenté, de même que l’intérêt pour le domaine. Sur X, l’ingénieur produit de Hugging Face, Caleb Fahlgren, a publié un graphique des modèles créés chaque mois sur la plateforme (et un lien vers d’autres graphiques), en disant « Les modèles prennent de l’ampleur de manière exponentielle mois après mois et septembre n’est même pas encore terminé. » Comme l’a laissé entendre Delangue ci-dessus, le nombre important de modèles sur la plateforme découle de la nature collaborative de celle-ci et de la pratique de l’affinage des modèles existants pour des tâches spécifiques. L’affinage signifie prendre un modèle existant et lui donner une formation supplémentaire pour ajouter de nouveaux concepts à son réseau neuronal et modifier la façon dont il produit des sorties. Des développeurs et des chercheurs du monde entier contribuent à leurs résultats, ce qui mène à un grand écosystème.
Équilibrer la Numérisation et la Sobriété Numérique dans la Formation Professionnelle : Solutions Actuelles et Besoins Émergents
La formation professionnelle tout au long de la vie (FTLV) connaît une transformation significative dans le contexte actuel de numérisation