Le potentiel d’IA de Google Cloud est enfin convaincant.

Google Cloud Next 2024 s’est achevé et il est difficile de voir cet événement de cette année comme autre chose qu’un rallye très confiant pour la société. La plus grande conférence jamais organisée par Google Cloud, avec environ 30 000 personnes présentes, il restera peut-être comme le plus crucial pour la trajectoire de l’entreprise. Ce fut une semaine palpitante, avec Google Cloud dévoilant une véritable avalanche d’annonces dès le premier jour, la plupart étant directement liées à l’IA générative. Gemini 1.5 Pro a été l’un des grands axes de l’événement de cette année et cela n’est pas sans raison. Les deux principaux atouts du modèle sont sa multimodalité et sa fenêtre de contexte d’un million de jetons. Nous sommes saturés de références et de fonctionnalités en matière d’IA de nos jours, il est donc important de prendre du recul et d’apprécier le niveau auquel opère Gemini 1.5 Pro. Nous avons déjà vu la multimodalité, notamment avec le GPT-4 d’OpenAI, mais jamais à cette échelle. En pratique, cela signifie que le modèle peut gérer une grande partie de ce que n’importe quelle entreprise pourrait lui jeter. Parmi les exemples clés des capacités de Gemini 1.5 Pro en une seule demande figurent chaque fichier PDF sur la conformité au sein d’une organisation, l’ensemble du code source d’une entreprise, ainsi que la vidéo et l’audio de la présentation du deuxième jour. Rien d’autre sur le marché n’offre quelque chose de similaire. Le modèle phare de OpenAI, GPT-4 Turbo, peut gérer 128 000 jetons à la fois, tandis que Claude 3 Opus, le meilleur modèle d’Anthropic, est disponible avec une fenêtre de contexte de 200 000 et est techniquement capable d’un million sur demande. Mais sans aucune sortie générale en vue, l’affirmation de Google d’être le premier sur le marché à offrir des entrées à cette échelle tient la route.

Share the Post: