Le concurrent de Nvidia, Cerebras, affirme avoir relancé la loi de Moore avec des puces à l’échelle du wafer de troisième génération.

Cerebras a dévoilé sa dernière puce d’intelligence artificielle de la taille d’une assiette en guise de dîner le mercredi, affirmant offrir deux fois les performances par watt de son prédécesseur, en collaboration avec Qualcomm dans le but d’accélérer l’inférence d’apprentissage machine. La puce, surnommée WSE-3, est le processeur de troisième génération de waferscale de Cerebras et mesure un impressionnant 46 225 mm2 (soit environ 71,6 pouces2 en unités de mesure impériales.) La pièce de 4 billions de transistors est fabriquée sur le processus 5 nm de TSMC et est dotée de 900 000 cœurs et de 44 Go de SRAM, offrant une performance de 125 petaFLOPS en intelligence artificielle, se référant dans ce cas à des FP16 très clairsemés – nous en parlerons plus en détail dans un instant. Cerebras affirme que ses systèmes CS-3 sont deux fois plus rapides que son prédécesseur (cliquez pour agrandir). Un seul WSE-3 forme la base de la nouvelle plateforme CS-3 de Cerebras, qui prétend offrir une performance 2 fois supérieure, tout en consommant la même quantité de 23 kW que l’ancienne plateforme CS-2. « Ainsi, il s’agirait d’un véritable pas conforme à la loi de Moore, » a vanté le PDG Andrew Feldman lors d’un briefing de presse mardi. « Nous n’avons pas vu cela depuis longtemps dans notre industrie. » Comparée à la H100 de Nvidia, la WSE-3 est environ 57 fois plus grande et offre environ 62 fois plus de performances FP16 clairsemées. Mais compte tenu de la taille et de la consommation d’énergie du CS-3, il pourrait être plus précis de le comparer à une paire de systèmes DGX 8U comprenant au total 16 H100 à l’intérieur. Dans cette comparaison, le CS-3 est tout de même environ 4 fois plus rapide, mais cela ne concerne que les performances FP16 clairsemées.

Share the Post: