« Le moment est-il venu d’adopter une approche novatrice de l’architecture informatique ? »

Article sponsorisé. Lisez cette interview de Register pour découvrir ce que le Professeur Onur Mutlu de l’ETH Zürich pense de l’architecture informatique que nous devrions déployer pour répondre aux exigences de la prochaine génération.
The Register : Si nous examinons la façon dont l’architecture informatique fonctionne aujourd’hui, quels sont les défis et les lacunes de ce modèle ?
Professeur Onur Mutlu : Il y a des problèmes majeurs avec la façon dont nous concevons les systèmes informatiques aujourd’hui. L’un des plus grands est que bien que les ensembles de données augmentent et que nous essayions de faire des choses de plus en plus sophistiquées avec eux, les composants qui effectuent les calculs réels représentent une très petite fraction du système. Si l’on prend un nœud typique, plus de 98 pour cent de ce nœud est dédié au stockage, au contrôle et au déplacement de données, tandis que les processeurs qui opèrent sur ces données en constituent une très petite partie. La façon dont nous concevons nos systèmes est très centrée sur le processeur. Le processeur est roi et tout doit lui être acheminé pour pouvoir effectuer un calcul. Le système de stockage, le système mémoire et les interconnexions ne sont pas des composants actifs, travaillant de manière productive sur ces calculs. Lorsque vous déplacez continuellement des données entre le processeur et les sous-systèmes de mémoire ou de stockage, cela représente un goulot d’étranglement majeur.
Reg : Comment cela concorde-t-il avec l’ère des applications lourdes en données ?
OM : Il est de plus en plus courant que nous ayons de nombreux téraoctets de données à stocker provenant d’applications telles que l’apprentissage automatique et la génomique. Nous avons mené une étude avec Google dans laquelle nous avons examiné de grands modèles d’apprentissage automatique, ceux qui utilisent des accélérateurs d’apprentissage automatique, et nous avons constaté que plus de 90 pour cent de l’énergie totale du système est en réalité consacrée à l’accès à la mémoire. Cela entraîne à la fois des problèmes d’énergie et de performances. La majeure partie du potentiel de votre matériel est gaspillée, ce qui pose également des problèmes de durabilité. Tout ce matériel de traitement qui n’est utilisé que pour stocker des données représente une quantité importante de carbone qui est gaspillée.

Share the Post: