Pour créer un meilleur superordinateur d’IA, que la lumière soit.

La plupart des experts en intelligence artificielle semblent être d’accord pour dire que faire le prochain grand saut dans ce domaine dépendra au moins en partie de la construction de supercalculateurs sur une échelle autrefois inimaginable. Lors d’un événement organisé le mois dernier par la société de capital-risque Sequoia, le PDG d’une startup appelée Lightmatter a présenté une technologie qui pourrait bien permettre cette réflexion sur la rétroaction hyperscale en laissant les puces communiquer directement entre elles à l’aide de la lumière. Aujourd’hui, les données circulent généralement à l’intérieur des ordinateurs – et, dans le cas de l’entraînement des algorithmes d’IA, entre les puces à l’intérieur d’un centre de données – via des signaux électriques. Parfois, certaines parties de ces interconnexions sont converties en liens fibre optique pour une bande passante plus importante, mais la conversion des signaux de façon optique à électrique crée un goulot d’étranglement de communication. Au lieu de cela, Lightmatter souhaite connecter directement des centaines de milliers, voire des millions de GPU – ces puces de silicium cruciales pour l’entraînement en IA – en utilisant des liens optiques. Réduire le goulot d’étranglement de conversion devrait permettre aux données de circuler entre les puces à des vitesses beaucoup plus élevées que ce qui est possible aujourd’hui, et potentiellement permettre le déploiement de supercalculateurs en IA distribuée d’une ampleur extraordinaire. La technologie de Lightmatter, appelée Passage, se présente sous la forme d’interconnexions optiques – ou photoniques – construites en silicium qui permettent à son matériel de communiquer directement avec les transistors d’une puce en silicium comme un GPU. La société affirme que cela rend possible le transfert de données entre les puces avec une bande passante 100 fois supérieure à la normale. À titre de comparaison, le GPT-4 – l’algorithme d’IA le plus puissant d’OpenAI et le cerveau derrière ChatGPT – aurait été exécuté sur plus de 20 000 GPU. Harris affirme que Passage, qui sera prêt d’ici 2026, devrait permettre à plus d’un million de GPU de fonctionner en parallèle lors de la même exécution d’entraînement en IA.

Share the Post: