Voici la traduction en français : ‘Apple a détaillé dans un document de recherche comment elle a entraîné ses derniers modèles AI génératifs en utilisant les accélérateurs de réseaux neuronaux de Google plutôt que, par exemple, du matériel Nvidia plus à la mode. Le document [PDF], intitulé « Modèles de langue de la Fondation de l’Intelligence Apple », offre une plongée plutôt profonde dans le fonctionnement interne de la prise de l’iPhone sur LLMs, de l’entraînement à l’inférence. Ces modèles de langue sont les réseaux neuronaux qui transforment les requêtes et les invites en texte et images, et alimentent les fonctionnalités dite Apple Intelligence intégrées dans les systèmes d’exploitation de Cupertino. Ils peuvent effectuer des tâches telles que la résumé de texte et la suggestion de formulations pour les messages. Alors que la plupart des organisations d’IA se disputent pour les GPUs Nvidia, en particulier le H100 jusqu’à ce que Blackwell arrive – et peuvent envisager les offres d’AMD, d’Intel et d’autres – lorsqu’il s’agit de former des systèmes d’apprentissage machine, Apple a choisi le Tensor Processing Unit (TPU) de Google. Ce n’est pas totalement surprenant, puisque le titan du Mac et Nvidia sont en mauvais termes depuis quelques années pour diverses raisons, et il semble que Cook & Co n’ont que peu d’intérêt à arranger les choses pour la formation des Modèles Fondamentaux Apple (AFMs). Ce qui est surprenant, c’est qu’Apple n’a pas fait appel aux GPUs Radeon d’AMD, qui ont fourni précédemment des puces pour les appareils Mac. Au lieu de cela, Apple a choisi Google et ses processeurs TPU v4 et TPU v5 pour le développement des AFMs sur des données d’entraînement.’
Claude.ai : Une plateforme d’intelligence artificielle innovante
Claude.ai est une plateforme web qui utilise l’intelligence artificielle pour offrir divers services aux utilisateurs. Bien que les informations disponibles