L’infrastructure d’IA est une denrée chaude, tout comme la mémoire à haute bande passante (HBM) dont elle dépend, faisant monter les prix pour la nouvelle technologie sophistiquée ainsi que pour des matériels de mémoire et de stockage moins glamour. L’essor de l’IA est une excellente nouvelle pour les vendeurs de mémoire fabriquant des puces très prisées. Selon IDC, les revenus de Micron et Samsung ont augmenté respectivement de 57,7 % et 78,8 % au premier trimestre, d’une année sur l’autre, alors que SK hynix – l’un des principaux fabricants de HBM – a vu ses revenus augmenter de plus de 144 %. IDC note également que les segments émergents des PC d’IA et des smartphones d’IA semblent profiter aux fabricants de puces, car les appareils fonctionnant même avec des modèles d’IA modestes peuvent nécessiter plusieurs gigaoctets de stockage et de DRAM. Pour rendre la performance de l’IA satisfaisante pour les utilisateurs, une mémoire plus rapide est souvent nécessaire. « Avec la demande croissante d’IA dans les centres de données et le marché des appareils, la mémoire devrait rester un moteur important pour le développement de l’IDM (fabrication de dispositifs intégrée) au second semestre de 2024 (2H24) », a écrit la société de recherche. La mauvaise nouvelle est qu’il semble que ceux qui cherchent à mettre la main sur des serveurs alimentés par GPU, ou simplement un nouvel PC, pourraient devoir payer plus cher en conséquence.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du