Intel a lancé ses processeurs Xeon Scalable de 5e génération avec plus de cœurs, de cache et de puissance de calcul d’apprentissage machine lors de son événement AI Everywhere à New York jeudi. Le géant de l’x86 espère que la puce l’aidera à gagner des clients qui ont du mal à obtenir des accélérateurs dédiés à l’IA, présentant le processeur comme «le meilleur CPU pour l’IA, sans aucun doute». Cette affirmation est certainement renforcée par le fait qu’Intel est l’un des rares fabricants de puces à avoir intégré l’accélération de l’IA, dans ce cas ses instructions Advanced Matrix Extensions (AMX), dans ses puces de datacenter. Par rapport à Sapphire Rapids, rappelons-nous qu’elle n’a été lancée qu’en janvier après plus d’un an de retard, Intel affirme que ses Xeon de 5e génération sont jusqu’à 1,4 fois plus rapides en inférence d’IA et peuvent fournir des latences acceptables pour une large gamme d’applications d’apprentissage machine plus petites. Avant de nous plonger dans la stratégie d’IA accélérée par CPU d’Intel, examinons la puce elle-même. Malgré le fait que ce soit une année de rafraîchissement pour la famille Xeon, Intel a en fait apporté de nombreux changements sous le capot pour améliorer les performances et l’efficacité de la puce par rapport à la génération précédente. Emerald Rapids apporte plusieurs améliorations notables par rapport à son prédécesseur, que nous voyons principalement sous la forme de plus grands nombres de cœurs et de cache L3.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)