Dans le cadre de leur partenariat en intelligence artificielle, Oracle et Microsoft ont signé un accord pluriannuel pour prendre en charge la demande croissante de recherches conversationnelles Bing, récemment ouvertes au public. Dans le cadre de cet accord, Microsoft utilisera sa propre infrastructure Azure pour l’IA en combinaison avec le service de supercalculateur Oracle Cloud Infrastructure (OCI) – un service d’entraînement et d’inférence basé sur les GPU Nvidia lancé en mars. Le service OCI Supercluster est le premier niveau de la stratégie d’IA générative d’Oracle, ciblant des entreprises telles que Cohere ou Hugging Face, qui travaillent à développer de grands modèles de langage (LLMs) pour soutenir leurs utilisateurs finaux. La combinaison du service OCI Supercluster et de l’IA Azure permettra à Microsoft d’effectuer des inférences sur des modèles IA en cours d’optimisation pour alimenter les recherches conversationnelles Bing tous les jours, ont déclaré les entreprises dans une déclaration conjointe. L’inférence est un processus au cours duquel un système d’IA tire des conclusions ou fait des prédictions sur la base des informations et des connaissances dont il dispose.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du