Alors que la demande en IA générative augmente, les fournisseurs de services en nuage tels que Microsoft, Google et AWS, ainsi que les grands fournisseurs de modèles linguistiques (LLM), comme OpenAI, auraient tous envisagé de développer leurs propres puces sur mesure pour les charges de travail en IA. Les spéculations selon lesquelles certaines de ces entreprises – en particulier OpenAI et Microsoft – auraient fait des efforts pour développer leurs propres puces sur mesure afin de faire face aux pénuries de puces ont dominé les manchettes ces dernières semaines. Si OpenAI est soupçonné de vouloir acquérir une entreprise pour poursuivre ses plans de conception de puces, Microsoft travaillerait avec AMD pour produire une puce personnalisée, nommée Athena. Google et AWS ont déjà développé leurs propres puces pour les charges de travail en IA sous la forme de processeurs de traitement de tenseurs (TPU), de la part de Google, et des puces Trainium et Inferentia d’AWS. Mais quels facteurs poussent ces entreprises à fabriquer leurs propres puces? Selon les analystes et les experts, la réponse réside dans le coût du traitement des requêtes d’IA générative et dans l’efficacité des puces actuellement disponibles, principalement les unités de traitement graphique (GPU). Les GPUs A100 et H100 d’Nvidia dominent actuellement le marché des puces IA.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)