Apple veut que l’IA fonctionne directement sur ses appareils au lieu de fonctionner dans le cloud.

La dernière recherche d’Apple sur l’exécution de grands modèles linguistiques sur les smartphones offre le signal le plus clair jusqu’à présent que l’iPhone prévoit de rattraper ses concurrents de la vallée de Silicom en matière d’intelligence artificielle générative. Dans le papier intitulé «LLM in a Flash», les chercheurs proposent une «solution à un goulot d’étranglement informatique actuel», écrivent-ils. Son approche «ouvre la voie à une inférence efficace de LLM sur des appareils à mémoire limitée», ont-ils déclaré. L’inférence fait référence à la manière dont les grands modèles linguistiques, les vastes bases de données qui alimentent des applications telles que ChatGPT, répondent aux requêtes des utilisateurs. Les chatbots et les LLM s’exécutent généralement dans de vastes centres de données disposant de bien plus de puissance de calcul qu’un iPhone. Le papier a été publié le 12 décembre mais a suscité un plus large intérêt après que Hugging Face, un site populaire pour les chercheurs en IA, l’ait mis en évidence mercredi soir. C’est le deuxième papier d’Apple sur l’intelligence artificielle générative ce mois-ci et suit des décisions antérieures permettant aux modèles générateurs d’images comme Stable Diffusion de s’exécuter sur ses puces personnalisées. Les fabricants d’appareils et les fabricants de puces espèrent que de nouvelles fonctionnalités d’IA permettront de relancer le marché des smartphones, qui a connu sa pire année en une décennie, avec une baisse des livraisons estimée à 5%.

Share the Post: