Apple plonge profondément dans la technologie de l’intelligence artificielle, selon deux articles de recherche récemment publiés mettant en avant le travail de l’entreprise. La recherche montre qu’Apple travaille à développer des technologies d’IA sur périphérique, notamment une méthode novatrice pour créer des avatars animés et une nouvelle façon d’exécuter de grandes modèles de langage à partir d’un iPhone ou d’un iPad. Aussi: Les entreprises ont-elles des lignes directrices éthiques pour l’utilisation de l’IA? 56% des professionnels n’en sont pas sûrs, selon un sondage.
Baptisée « LLM in a flash », la recherche d’Apple sur l’exécution efficace de LLMs sur des périphériques ayant une mémoire limitée permet aux applications d’IA complexes de fonctionner correctement sur iPhone ou iPad. Cela pourrait également impliquer l’exécution d’un Siri alimenté par une IA générative sur périphérique, qui assiste simultanément dans diverses tâches, génère du texte et possède une meilleure capacité à traiter le langage naturel.
HUGS est l’acronyme pour Human Gaussian Splats, une méthode permettant de créer des avatars entièrement animables à partir de courtes vidéos capturées sur un iPhone en seulement 30 minutes. HUGS est un cadre de rendu neuronal capable d’apprendre à partir de quelques secondes de vidéo seulement pour créer un avatar détaillé que les utilisateurs peuvent animer comme ils le souhaitent.
Il y a eu des rapports selon lesquels Apple travaillerait sur son propre chatbot IA, utilisé en interne et appelé « Apple GPT ». Les nouvelles recherches montrent que l’entreprise fait des progrès dans l’exécution de LLMs en utilisant la mémoire flash sur des périphériques plus petits et moins puissants comme l’iPhone. Cela pourrait rendre les outils d’IA générative sophistiqués disponibles sur périphérique et signifier qu’un Siri alimenté par une IA générative est disponible.