Apple optimise LLMs pour les cas d’utilisation Edge

Apple a publié un document intitulé « LLM en un instant : Inférence efficace d’un modèle linguistique à grande échelle avec une mémoire limitée », qui expose une méthode permettant d’exécuter des modèles linguistiques sur des appareils dépassant la capacité de la DRAM disponible. Cela implique de stocker les paramètres du modèle sur la mémoire flash et de les transférer sur demande vers la DRAM. Leur méthode consiste à construire un modèle de coût d’inférence qui s’aligne sur le comportement de la mémoire flash, guidant les efforts d’optimisation dans deux domaines cruciaux : réduire le volume de données transférées depuis la mémoire flash et lire les données par blocs plus importants et plus contigus. Dans ce cadre informé par la mémoire flash, Apple utilise deux principales techniques. Premièrement, la « fenêtre » réduit stratégiquement le transfert de données en réutilisant les neurones précédemment activés, et deuxièmement, le « groupement de lignes-colonnes », adapté aux forces d’accès séquentiel aux données de la mémoire flash, augmente la taille des blocs de données lus depuis la mémoire flash. Ces méthodes permettent ensemble d’exécuter des modèles jusqu’à deux fois la taille de la DRAM disponible, avec une augmentation de 4 à 5 fois et de 20 à 25 fois de la vitesse d’inférence par rapport aux approches de chargement naïves en CPU et en GPU, respectivement. Cette recherche est importante car Apple prévoit d’intégrer des capacités d’IA générative dans iOS 18. Le nouveau système d’exploitation exploitera la technologie d’IA générative pour améliorer Siri et l’application Messages, leur permettant de répondre aux questions et de compléter automatiquement les phrases de manière plus efficace. Apple explore également l’utilisation potentielle de l’IA générative dans des applications telles que Apple Music, Pages, Keynote et Xcode.

Share the Post: