Apple veut que l’IA fonctionne directement sur son matériel et non dans le cloud.

Les dernières recherches d’Apple sur l’exécution de grands modèles linguistiques sur les smartphones offrent le signal le plus clair jusqu’à présent que le fabricant d’iPhone compte rattraper ses rivaux de la Silicon Valley en matière d’intelligence artificielle générative. Dans leur article intitulé «LLM in a Flash», les chercheurs écrivent qu’ils ont trouvé «une solution à un goulot d’étranglement computationnel actuel». Leur approche «ouvre la voie à une inférence efficace de LLM sur des appareils à mémoire limitée», ont-ils déclaré. L’inférence fait référence à la manière dont les grands modèles linguistiques, les vastes bases de données qui alimentent des applications comme ChatGPT, répondent aux requêtes des utilisateurs. Les chatbots et les LLM s’exécutent généralement dans de vastes centres de données disposant de beaucoup plus de puissance de calcul qu’un iPhone. L’article a été publié le 12 décembre mais a attiré l’attention du grand public après que Hugging Face, un site populaire pour les chercheurs en IA souhaitant mettre en avant leur travail, l’ait mis en évidence mercredi soir. C’est le deuxième article d’Apple sur l’IA générative ce mois-ci et suit des décisions prises plus tôt pour permettre aux modèles de génération d’images tels que Stable Diffusion de s’exécuter sur ses puces personnalisées. Les fabricants d’appareils et de puces espèrent que de nouvelles fonctionnalités d’IA permettront de relancer le marché des smartphones, qui a connu sa pire année en une décennie, avec une baisse des livraisons estimée à 5 %, selon Counterpoint Research.

Share the Post: