Pomme, pas normalement reconnue pour son ouverture, a publié un modèle IA génératif appelé OpenELM qui semble surpasser un ensemble d’autres modèles de langue entraînés sur des ensembles de données publics. Ce n’est pas beaucoup – comparé à OLMo, qui a fait ses débuts en février, OpenELM est 2,36 % plus précis tout en utilisant 2 fois moins de jetons de pré-entraînement. Mais c’est peut-être suffisant pour rappeler aux gens qu’Apple n’est plus content d’être le mur fleuri à la rave de l’IA de l’industrie. La revendication d’Apple à l’ouverture vient de sa décision de publier non seulement le modèle, mais son cadre d’entraînement et d’évaluation. « S’écartant des pratiques antérieures qui ne fournissent que les poids du modèle et le code d’inférence, et se pré-entraînent sur des ensembles de données privés, notre publication comprend le cadre complet pour l’entraînement et l’évaluation du modèle de langue sur des ensembles de données disponibles publiquement, y compris des journaux d’entraînement, plusieurs points de contrôle et des configurations de pré-entraînement », expliquent onze chercheurs d’Apple dans l’article technique associé. Et s’écartant de la pratique académique, les adresses email des auteurs ne sont pas répertoriées. On peut l’attribuer à l’interprétation de l’ouverture par Apple, qui est quelque peu comparable à l’OpenAI pas très ouverte.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)