« Nvidia rival Cerebras dit avoir relancé la loi de Moore avec des puces de troisième génération à l’échelle des galettes. »

Cerebras a révélé sa dernière puce d’intelligence artificielle de la taille d’une assiette de dîner mercredi, affirmant qu’elle offre deux fois plus de performances par watt que son prédécesseur, en collaboration avec Qualcomm dans le but d’accélérer l’inférence en apprentissage automatique. La puce, surnommée WSE-3, est le processeur à l’échelle de la gaufrette de troisième génération de Cerebras et mesure un énorme 46 225 mm2 (environ 71,6 pouces2 en unités impériales). La pièce de 4 billions de transistors est fabriquée avec le procédé 5 nm de TSMC et est dotée de 900 000 cœurs et de 44 Go de SRAM, offrant une performance de 125 petaFLOPS en intelligence artificielle, se référant dans ce cas à FP16 très clairsemé – plus de détails dans un instant. Cerebras affirme que ses systèmes CS-3 sont deux fois plus rapides que son prédécesseur. Un seul WSE-3 constitue la base de la nouvelle plate-forme CS-3 de Cerebras, qui offre 2 fois plus de performances tout en consommant les mêmes 23 kW que l’ancienne plate-forme CS-2. « Donc, il s’agirait d’un véritable pas de la loi de Moore, » a vantée mardi le PDG Andrew Feldman lors d’un briefing de presse. « Nous n’avons pas vu cela depuis longtemps dans notre industrie. » Comparé au H100 de Nvidia, le WSE-3 est environ 57 fois plus grand et offre environ 62 fois les performances de FP16 clairsemé. Cependant, compte tenu de la taille et de la consommation électrique du CS-3, il serait peut-être plus précis de le comparer à une paire de systèmes DGX 8U avec un total de 16 H100 à l’intérieur. Dans cette comparaison, le CS-3 est tout de même environ 4 fois plus rapide, mais seulement en regardant les performances de FP16 clairsemé.

Share the Post: