Intel veut faire fonctionner l’IA sur ses CPU et dit que ses Xeons de 5e génération sont faits pour cela.

Intel a lancé ses processeurs Xeon Scalable de 5e génération avec plus de cœurs, de cache et de puissance de calcul en machine learning lors de son événement AI Everywhere à New York jeudi. Le géant x86 espère ainsi séduire les clients qui ont du mal à se procurer des accélérateurs dédiés au machine learning, mettant en avant le processeur comme étant «le meilleur CPU pour le machine learning, sans aucun doute». Cette affirmation est renforcée par le fait qu’Intel est l’un des rares fabricants de puces à avoir intégré l’accélération du machine learning, dans ce cas ses instructions Advanced Matrix Extensions (AMX), dans ses puces de datacenter. Par rapport à Sapphire Rapids, rappelons que cette dernière n’a été lancée qu’en janvier dernier, après plus d’un an de retard, Intel affirme que ses Xeons de 5e génération sont jusqu’à 1,4 fois plus rapides en inférence de machine learning et peuvent fournir des latences acceptables pour une large gamme d’applications de machine learning, certes plus petites. Avant de nous pencher sur la stratégie de machine learning accéléré par CPU d’Intel, voyons un peu plus en détail la puce elle-même. Malgré le fait que cette année soit une année de mise à jour pour la famille Xeon, Intel a en fait apporté de nombreux changements sous le capot pour améliorer les performances et l’efficacité du processeur par rapport à la génération précédente. Emerald Rapids apporte plusieurs améliorations notables par rapport à son prédécesseur, que nous voyons principalement sous la forme de plus grands nombres de cœurs et de cache L3.

Share the Post: