Intel a lancé ses processeurs Xeon Scalable de 5e génération avec plus de cœurs, de cache et de puissance d’apprentissage machine lors de son événement AI Everywhere à New York jeudi. Le géant x86 espère que la puce l’aidera à gagner des clients luttant pour obtenir des accélérateurs dédiés à l’IA, présentant le processeur comme étant «le meilleur CPU pour l’IA, de loin». Cette affirmation est renforcée par le fait qu’Intel est l’un des rares fabricants de puces à avoir intégré l’accélération de l’IA, dans ce cas ses instructions Advanced Matrix Extensions (AMX), dans ses puces de datacenter. Par rapport à Sapphire Rapids, rappelons que ce dernier n’a été lancé qu’en janvier après plus d’un an de retard, Intel affirme que ses Xeons de 5e génération sont jusqu’à 1,4 fois plus rapides en inférence d’IA et peuvent offrir des temps de réponse acceptables pour une large gamme d’applications d’apprentissage machine plus petites. Avant de nous plonger dans la stratégie d’IA accélérée par CPU d’Intel, examinons la puce elle-même. Malgré le fait que cette année soit une année de rafraîchissement pour la famille Xeon, Intel a en fait apporté de nombreux changements sous le capot pour améliorer les performances et l’efficacité de la puce par rapport à la dernière génération. Emerald Rapids apporte plusieurs améliorations notables par rapport à son prédécesseur, que nous voyons principalement sous la forme de plus grands nombres de cœurs et de cache L3.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)