Apple a publié un article intitulé « LLM en un éclair : une inférence de grand modèle de langage efficace avec une mémoire limitée » décrivant une méthode permettant de faire fonctionner des LLM sur des appareils dépassant la capacité de DRAM disponible. Cela implique le stockage des paramètres du modèle sur la mémoire flash et leur mise en mémoire DRAM au besoin. Leur méthode consiste à construire un modèle de coût d’inférence qui s’aligne sur le comportement de la mémoire flash, ce qui guide les efforts d’optimisation dans deux domaines cruciaux : la réduction du volume de données transférées de la mémoire flash et la lecture de données en blocs plus importants et plus contigus. Dans ce cadre informé par la mémoire flash, Apple utilise deux techniques principales. Tout d’abord, la fenêtrage réduit de manière stratégique le transfert de données en réutilisant les neurones activés précédemment, et secondement, le « groupement ligne-colonne », adapté aux forces d’accès séquentiel aux données de la mémoire flash, augmente la taille des blocs de données lus à partir de la mémoire flash. Ces méthodes permettent collectivement de faire fonctionner des modèles jusqu’à deux fois plus importants que la DRAM disponible, avec une augmentation de 4 à 5 fois et de 20 à 25 fois de la vitesse d’inférence par rapport aux approches naïves de chargement dans les CPU et GPU, respectivement. Ces recherches sont importantes car Apple prévoit d’intégrer des capacités d’IA générative dans iOS 18. Le nouvel OS utilisera la technologie d’IA générative pour améliorer Siri et l’application Messages, leur permettant de répondre plus efficacement aux questions et de compléter automatiquement les phrases. Apple explore également le potentiel de l’IA générative dans des applications telles que Apple Music, Pages, Keynote et Xcode.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)