Les unités de traitement neuronal (NPUs) deviennent courantes dans les puces d’Intel et d’AMD après plusieurs années d’avoir été principalement trouvées dans les smartphones et les tablettes (et les Mac). Mais alors que de plus en plus d’entreprises poussent à réaliser plus de traitement d’IA générative, d’édition d’images et de chatbot-ing localement sur l’appareil au lieu dans le cloud, être capable de mesurer les performances de NPU deviendra de plus en plus important pour les personnes prenant des décisions d’achat. Entrez Primate Labs, les développeurs de Geekbench. L’application principale de Geekbench est conçue pour tester les performances du CPU ainsi que les performances de calcul GPU, mais ces dernières années, la société a expérimenté un projet secondaire appelé Geekbench ML (pour « Machine Learning ») pour tester les performances d’inférence des NPUs. Maintenant, alors que l’initiative Copilot+ de Microsoft prend son envol et qu’Intel, AMD, Qualcomm et Apple poussent tous pour améliorer les performances de NPU, Primate Labs met à niveau Geekbench ML vers la version 1.0 et le renomme « Geekbench AI, » un changement qui l’aidera vraisemblablement à profiter de l’engouement lié à l’IA. « Tout comme les charges de travail liées au CPU varient dans la manière dont elles peuvent tirer parti de plusieurs cœurs ou threads pour l’escalabilité des performances (nécessitant à la fois des mesures de performance à un seul cœur et multicœur dans la plupart des benchmarks associés), les charges de travail d’IA couvrent une gamme de niveaux de précision, selon la tâche requise et le matériel disponible, » a écrit John Poole de Primate Labs dans un article de blog sur la mise à jour. « Geekbench AI présente son résumé pour une gamme de tests de charges de travail réalisés avec des données à précision unique, des données à demi-précision et des données quantifiées, couvrant une variété utilisée par les développeurs en termes à la fois de précision et de but dans les systèmes d’IA. » Outre mesurer la vitesse, Geekbench AI tente également de mesurer la précision, ce qui est important pour les charges de travail d’apprentissage automatique qui dépendent de la production de résultats cohérents (identifier et répertorier des personnes et des objets dans une bibliothèque de photos, par exemple). Geekbench AI prend en charge plusieurs cadres d’IA : OpenVINO pour Windows et Linux, ONNX pour Windows, QNN de Qualcomm sur les PC Arm alimentés par Snapdragon, CoreML d’Apple sur macOS et iOS, ainsi que plusieurs cadres spécifiques aux fournisseurs sur divers appareils Android. L’application peut exécuter ces charges de travail sur le CPU, le GPU ou le NPU, du moins lorsque votre appareil est équipé d’un NPU compatible.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du