« Apple lance OpenELM, un LLM légèrement plus précis »

Pomme, pas normalement reconnue pour son ouverture, a publié un modèle IA génératif appelé OpenELM qui semble surpasser un ensemble d’autres modèles de langue entraînés sur des ensembles de données publics. Ce n’est pas beaucoup – comparé à OLMo, qui a fait ses débuts en février, OpenELM est 2,36 % plus précis tout en utilisant 2 fois moins de jetons de pré-entraînement. Mais c’est peut-être suffisant pour rappeler aux gens qu’Apple n’est plus content d’être le mur fleuri à la rave de l’IA de l’industrie. La revendication d’Apple à l’ouverture vient de sa décision de publier non seulement le modèle, mais son cadre d’entraînement et d’évaluation. « S’écartant des pratiques antérieures qui ne fournissent que les poids du modèle et le code d’inférence, et se pré-entraînent sur des ensembles de données privés, notre publication comprend le cadre complet pour l’entraînement et l’évaluation du modèle de langue sur des ensembles de données disponibles publiquement, y compris des journaux d’entraînement, plusieurs points de contrôle et des configurations de pré-entraînement », expliquent onze chercheurs d’Apple dans l’article technique associé. Et s’écartant de la pratique académique, les adresses email des auteurs ne sont pas répertoriées. On peut l’attribuer à l’interprétation de l’ouverture par Apple, qui est quelque peu comparable à l’OpenAI pas très ouverte.

Share the Post: