L’IA Copilot de Microsoft sera programmée pour fonctionner localement sur les futurs PC, selon Intel.

L’IA Copilot de Microsoft pourrait bientôt fonctionner localement sur les PC au lieu de dépendre du cloud. Intel a informé Tom’s Hardware que le chatbot pourrait fonctionner sur les futurs PC activés par l’IA qui devraient incorporer des unités de traitement neuronal (NPUs) capables de dépasser les 40 billions d’opérations par seconde (TOPS) – un niveau de performance actuellement inégalé par aucun processeur grand public disponible. Intel a mentionné que ces PC AI seraient équipés pour gérer « plus d’éléments de Copilot » directement sur la machine. Copilot repose actuellement principalement sur le traitement cloud pour la plupart des tâches, ce qui entraîne des retards perceptibles, en particulier pour les demandes mineures. L’amélioration de la puissance de calcul locale devrait réduire de tels retards, ce qui pourrait augmenter les performances et la confidentialité. Intel n’a pas répondu immédiatement à une demande de commentaire de la part de Computerworld. Comme précédemment signalé, l’utilisation de Copilot sur Windows 11, ChatGPT, Adobe Firefly ou des outils genAI similaires ne traite pas réellement les tâches sur votre ordinateur mais plutôt dans des centres de données distants utilisant des ressources et de l’électricité importantes. Bien qu’il soit possible d’exécuter des applications comme le modèle Stable Diffusion de texte en image ou le modèle de langage Llama localement, l’obtention de résultats de haute qualité nécessite généralement un PC doté de capacités de traitement substantielles, en particulier un GPU haute vitesse, précédemment recherché pour le minage de cryptomonnaie.

Share the Post: