Apple veut que l’IA fonctionne directement sur ses propres matériels au lieu de fonctionner dans le cloud.

La toute dernière recherche d’Apple concernant l’exécution de grands modèles de langage sur les smartphones offre le signal le plus clair jusqu’à présent que l’iPhone maker compte rattraper ses rivaux de la vallée de la Silicone en matière d’intelligence artificielle générative. Dans un article intitulé «LLM in a Flash», les chercheurs proposent «une solution à un goulot d’étranglement computationnel actuel», écrivent-ils. Son approche «ouvre la voie à une inférence efficace de LLMs sur des appareils dotés de mémoires limitées», ont-ils déclaré. L’inférence fait référence à la manière dont les grands modèles de langage, les vastes bases de données qui alimentent des applications telles que ChatGPT, répondent aux requêtes des utilisateurs. Les chatbots et les LLM s’exécutent normalement dans de vastes centres de données disposant de bien plus de puissance de calcul qu’un iPhone. L’article a été publié le 12 décembre, mais il a suscité un plus large intérêt après que Hugging Face, un site populaire pour les chercheurs en IA souhaitant mettre en avant leur travail, l’ait mis en évidence mercredi soir. C’est le deuxième article d’Apple sur l’IA générative ce mois-ci et il suit des démarches antérieures visant à permettre aux modèles générateurs d’images tels que Stable Diffusion de s’exécuter sur ses puces personnalisées. Les fabricants d’appareils et les fabricants de puces espèrent que de nouvelles fonctionnalités d’IA permettront de relancer le marché des smartphones, qui a connu sa pire année en une décennie, avec une baisse des expéditions estimée à 5%.

Share the Post: