Apple veut que l’IA fonctionne directement sur ses propres périphériques au lieu de fonctionner dans le cloud.

Le dernier rapport de recherche d’Apple concernant l’exécution de grands modèles linguistiques sur les smartphones offre le signal le plus clair jusqu’à présent que l’iPhone Maker compte rattraper ses rivaux de la Silicon Valley en matière d’intelligence artificielle générative. Le papier, intitulé «LLM in a Flash», offre «une solution à un goulot d’étranglement computationnel actuel», écrivent ses chercheurs. Son approche «ouvre la voie à une inférence efficace de LLMs sur des appareils ayant une mémoire limitée», ont-ils déclaré. L’inférence fait référence à la façon dont les grands modèles linguistiques, les vastes bases de données qui alimentent des applications comme ChatGPT, répondent aux requêtes des utilisateurs. Les chatbots et les LLM s’exécutent généralement dans de vastes centres de données disposant de beaucoup plus de puissance de calcul qu’un iPhone. Le papier a été publié le 12 décembre, mais a suscité un plus large intérêt après que Hugging Face, un site populaire pour les chercheurs en IA souhaitant présenter leurs travaux, l’ait mis en évidence mercredi soir. C’est le deuxième papier d’Apple sur l’IA générative ce mois-ci et suit des déplacements antérieurs pour permettre aux modèles générateurs d’images tels que Stable Diffusion de s’exécuter sur ses puces personnalisées. Les fabricants d’appareils et les fabricants de puces espèrent que de nouvelles fonctionnalités d’IA permettront de relancer le marché des smartphones, qui connaît sa pire année en une décennie, avec une baisse des expéditions estimée à 5%.

Share the Post: