À mesure que la demande de l’IA générative augmente, les fournisseurs de services en nuage tels que Microsoft, Google et AWS, ainsi que les grands fournisseurs de modèles linguistiques (LLM) tels qu’OpenAI, auraient tous envisagé de développer leurs propres puces personnalisées pour les charges de travail en IA. Les spéculations selon lesquelles certaines de ces entreprises – notamment OpenAI et Microsoft – auraient fait des efforts pour développer leurs propres puces personnalisées destinées à gérer les charges de travail en IA générative en raison de pénuries de puces ont dominé les manchettes ces dernières semaines. Si OpenAI est rumored pour être à la recherche d’une entreprise pour poursuivre ses plans de conception de puces, Microsoft travaillerait avec AMD pour produire une puce personnalisée, code-named Athena. Google et AWS ont tous les deux développé leurs propres puces pour les charges de travail en IA sous la forme de Tensor Processing Units (TPU), de la part de Google, et de Trainium et de Inferentia de AWS. Mais quels facteurs poussent ces entreprises à fabriquer leurs propres puces? La réponse, selon les analystes et les experts, réside dans le coût du traitement des requêtes en IA générative et dans l’efficacité des puces actuellement disponibles, principalement les unités de traitement graphique (GPU). Les cartes graphiques A100 et H100 de Nvidia dominent actuellement le marché des puces IA.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)