L’infrastructure d’IA est une denrée chaude, tout comme la mémoire à haute bande passante (HBM) dont elle dépend, faisant monter les prix pour la nouvelle technologie sophistiquée ainsi que pour des matériels de mémoire et de stockage moins glamour. L’essor de l’IA est une excellente nouvelle pour les vendeurs de mémoire fabriquant des puces très prisées. Selon IDC, les revenus de Micron et Samsung ont augmenté respectivement de 57,7 % et 78,8 % au premier trimestre, d’une année sur l’autre, alors que SK hynix – l’un des principaux fabricants de HBM – a vu ses revenus augmenter de plus de 144 %. IDC note également que les segments émergents des PC d’IA et des smartphones d’IA semblent profiter aux fabricants de puces, car les appareils fonctionnant même avec des modèles d’IA modestes peuvent nécessiter plusieurs gigaoctets de stockage et de DRAM. Pour rendre la performance de l’IA satisfaisante pour les utilisateurs, une mémoire plus rapide est souvent nécessaire. « Avec la demande croissante d’IA dans les centres de données et le marché des appareils, la mémoire devrait rester un moteur important pour le développement de l’IDM (fabrication de dispositifs intégrée) au second semestre de 2024 (2H24) », a écrit la société de recherche. La mauvaise nouvelle est qu’il semble que ceux qui cherchent à mettre la main sur des serveurs alimentés par GPU, ou simplement un nouvel PC, pourraient devoir payer plus cher en conséquence.
Claude.ai : Une plateforme d’intelligence artificielle innovante
Claude.ai est une plateforme web qui utilise l’intelligence artificielle pour offrir divers services aux utilisateurs. Bien que les informations disponibles