« Les géants de la technologie et les sociétés de capital-risque investissent 1 milliard de dollars dans Scale AI, l’entreprise de données en apprentissage automatique chérie. »

La valorisation de Scale AI a grimpé à près de 14 milliards de dollars mardi après que la start-up a révélé avoir récolté un milliard de dollars en capital-risque lors d’un tour de financement de stade avancé mené par Accel avec le soutien de géants de l’industrie tels que Nvidia, Amazon et Meta, pour n’en citer que quelques-uns. Alors que Nvidia a fait fortune en vendant le matériel sur lequel s’appuient OpenAI, Anthropic, Meta et d’autres, la renommée de Scale réside dans la fourniture des données nécessaires pour réellement entraîner ces modèles. Et, comme nous l’avons déjà discuté, les modèles modernes nécessitent beaucoup de données. Rien que pour former un modèle relativement petit comme Llama 3, Meta affirme avoir utilisé 15 billions de jetons – les fragments de mots et de ponctuation qui composent la prose et le discours. Fondée en 2016 par Alexandr Wang, Scale se présente comme une « fonderie de données » qui a contribué à alimenter « pratiquement tous les principaux modèles IA » existants. Cela inclut une collaboration directe avec OpenAI sur GPT-2 et InstructGPT ainsi que plusieurs programmes gérés par le Département de la Défense des États-Unis. En plus de fournir aux constructeurs de modèles des quantités massives de données minutieusement étiquetées, Scale propose également des services pour aider ses partenaires à peaufiner leurs ensembles de données existants. Dire que trouver suffisamment de données pour construire des modèles de plus en plus performants a posé problème serait un euphémisme. Cette question est au cœur de nombreuses poursuites judiciaires intentées par des artistes, des journaux, des photographes et des auteurs qui allèguent qu’OpenAI et d’autres ont violé les droits d’auteur des créateurs en utilisant leurs œuvres pour former des modèles d’apprentissage automatique.

Share the Post: