« Bulle de l’IA ou non, Nvidia mise tout sur un avenir accéléré par les GPU »

Pour beaucoup, des applications comme ChatGPT, Copilot, Midjourney, ou Gemini sont de l’IA générative. Mais s’il y a une leçon à tirer du discours d’ouverture du GTC prononcé par le PDG de Nvidia, Jensen Huang, c’est que, bien que ChatGPT soit impressionnant et ait ouvert les yeux du monde sur les grands modèles de langage (GML), il n’effleure que la surface du potentiel technologique – vendre des GPU. Bien que beaucoup d’attention ait été portée sur les nouveaux processeurs Blackwell de Nvidia, une très bonne proportion de la présentation de deux heures de Huang s’est concentrée sur les applications plus tangibles de l’IA, que ce soit pour les bureaux, les usines de fabrication, les entrepôts, la recherche médicale, ou la robotique. Il n’est pas difficile de comprendre pourquoi. Les modèles qui alimentent ChatGPT et ses contemporains sont massifs, allant de centaines de milliards à des billions de paramètres. Ils sont si volumineux que leur formation nécessite souvent des dizaines de milliers de GPU fonctionnant pendant des semaines sans interruption. Cela, ainsi qu’une course désespérée des grandes entreprises pour intégrer l’IA dans leurs opérations, a alimenté la demande d’accélérateurs. Les principaux fournisseurs de cloud et les acteurs de l’hyperscale ont été à l’avant-garde de ces achats de dizaines ou même de centaines de milliers de GPU à cette fin.

Share the Post: