Voici la traduction en français du texte : « Comment Oracle dit qu’il prend déjà des commandes pour un cluster de 2,4 zettaFLOPS avec ‘trois fois plus de GPUs que le superordinateur Frontier’. Mais soyons précis au sujet de la précision : Oracle n’a en fait pas réussi à obtenir une amélioration des performances de 2 000 fois par rapport au superordinateur le mieux classé aux États-Unis – ce sont des ‘zettaFLOPS AI’ et les plus petits et les plus clairsemés que les puces de Nvidia peuvent rassembler par rapport à la manière standard de mesurer les performances des superordinateurs en 64 bits. Ceci est peut-être une connaissance commune pour la plupart de nos lecteurs, mais il semble qu’Oracle ait besoin d’un rappel : les FLOPS sont à peu près sans signification à moins d’être accompagnés d’une unité de mesure. Dans le calcul scientifique, les FLOPS sont généralement mesurés en double précision ou 64 bits. Cependant, pour le genre de mathématiques floues qui constitue les algorithmes d’IA modernes, nous pouvons habituellement nous en sortir avec une précision bien inférieure, allant jusqu’à 16 bits, 8 bits, ou dans le cas du nouveau cluster Blackwell d’Oracle, des points flottants de 4 bits. Les 131 072 accélérateurs Blackwell qui composent le ‘superordinateur AI’ d’Oracle sont en fait capables de produire 2,4 zettaFLOPS de calcul FP4 clairsemé, mais la prétention relève davantage du marketing que de la réalité. »
Équilibrer la Numérisation et la Sobriété Numérique dans la Formation Professionnelle : Solutions Actuelles et Besoins Émergents
La formation professionnelle tout au long de la vie (FTLV) connaît une transformation significative dans le contexte actuel de numérisation