Intel a lancé ses processeurs Xeon Scalable de 5e génération avec plus de cœurs, de cache et de puissance en matière d’apprentissage automatique lors de son AI Everywhere Event à New York jeudi. Le géant de l’x86 espère ainsi séduire les clients qui ont du mal à se procurer des accélérateurs dédiés à l’IA, présentant le processeur comme étant «le meilleur CPU pour l’IA, de loin». Cette affirmation est sans aucun doute renforcée par le fait qu’Intel est l’un des rares fabricants de puces à avoir intégré une acceleration de l’IA, dans ce cas ses instructions Advanced Matrix Extensions (AMX), dans ses puces pour datacenter. Comparé à Sapphire Rapids, qui nous rappellerons qu’il n’a été lancé qu’en janvier après plus d’un an de retard, Intel affirme que ses Xeons de 5e génération sont jusqu’à 1,4 fois plus rapides en inférence IA et peuvent fournir des temps de réponse acceptables pour une large gamme d’applications d’apprentissage automatique certes plus petites. Avant de nous pencher sur la stratégie IA d’Intel basée sur la CPU, jetons un œil sur la puce elle-même. Malgré le fait que cela soit une année de refresh pour la famille Xeon, Intel a en fait apporté de nombreux changements sous le capot pour améliorer les performances et l’efficacité de la puce par rapport à la génération précédente. Emerald Rapids apporte plusieurs améliorations notables par rapport à son prédécesseur, que nous voyons principalement sous la forme d’un plus grand nombre de cœurs et de cache L3.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)