Les superpuces CPU-GPU GH200 tant attendues de Nvidia sont enfin mises en vente, et la puce de 1 000 watts, conçue pour fonctionner dans des serveurs et gérer des tâches d’apprentissage et d’inférence IA importantes, est même disponible dans une station de travail de la startup allemande gptshop.ai. Bernhard Guentner, le cerveau derrière cette jeune pousse, a intégré le GH200 dans une station de travail après avoir été insatisfait des performances des RTX 4090 grand public de Nvidia pour exécuter de gros modèles et en raison de sa préférence pour garder le travail en dehors du cloud. Il a donc modifié un serveur QCT pour l’adapter à un boîtier PC grand public. Et si vous avez entre 47 500 € (50 900 $) et 59 500 € (63 700 $) à disposition, il déclare pouvoir en construire un pour vous également. « J’ai commencé à expérimenter avec les RTX 4090 de Nvidia. J’en ai acheté un tas et les ai placées dans une baie de minage, puis j’ai effectué quelques tests. J’ai rapidement compris que ce n’était pas la bonne solution », explique Guentner dans une interview avec The Register. Bien que de nombreux modèles de langage volumineux soient disponibles dans des référentiels tels que Hugging Face, Guentner s’est rapidement heurté à un problème familier à quiconque a expérimenté avec l’inférence IA : plus le modèle est grand, plus vous avez besoin de mémoire vidéo.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du