Cerebras a dévoilé sa dernière puce IA de la taille d’une assiette de dîner mercredi, affirmant qu’elle offre deux fois plus de performances par watt que son prédécesseur, en plus d’une collaboration avec Qualcomm visant à accélérer l’inférence en apprentissage automatique. La puce, baptisée WSE-3, est le processeur à l’échelle de la tranche de troisième génération de Cerebras et mesure un impressionnant 46 225 mm² (environ 71,6 pouces² en unités libres). La partie de 4 billions de transistors est fabriquée sur le processus 5 nm de TSMC et est dotée de 900 000 cœurs et de 44 Go de SRAM, offrant une performance de 125 petaFLOPS en IA, se référant dans ce cas à FP16 très sparse – plus de détails à ce sujet dans un instant. Cerebras affirme que ses systèmes CS-3 sont deux fois plus rapides que son prédécesseur. Un seul WSE-3 constitue la base de la nouvelle plateforme CS-3 de Cerebras, qui offre selon lui une performance 2 fois supérieure, tout en consommant la même quantité de 23 kW que l’ancienne plateforme CS-2. « Donc, il s’agirait d’un véritable pas dans la loi de Moore », a vanté le PDG Andrew Feldman lors d’un briefing de presse mardi. « Nous n’avons pas vu cela depuis longtemps dans notre industrie. » Comparé au H100 de Nvidia, le WSE-3 est environ 57 fois plus large et annonce environ 62 fois plus de performance sparse en FP16. Mais compte tenu de la taille et de la consommation d’énergie du CS-3, il serait peut-être plus précis de le comparer à une paire de systèmes DGX 8U avec un total de 16 H100 à l’intérieur. Dans cette comparaison, le CS-3 est tout de même environ 4 fois plus rapide, mais cela ne vaut que pour la performance sparse en FP16.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)