Microsoft a publié une Note de Transparence pour Copilot pour Microsoft 365, mettant en garde les entreprises pour s’assurer que les droits d’accès des utilisateurs sont correctement gérés avant de déployer la technologie. Des préoccupations concernant la gouvernance des données ont retardé certains projets Copilot alors que les clients professionnels réfléchissent à la meilleure façon d’intégrer le service dans leurs organisations, et la Note de Transparence de Microsoft met en garde les administrateurs de vérifier que l’accès des utilisateurs est correctement configuré avant de déployer quoi que ce soit. La note est claire: « Copilot pour Microsoft 365 n’accède qu’aux données auxquelles un utilisateur individuel a déjà accès, basé par exemple sur les contrôles d’accès basés sur les rôles de Microsoft 365 existants ». Copilot pour Microsoft 365 est un complément pour lequel Microsoft attend 30 $ par utilisateur par mois, avec un abonnement annuel. Il utilise de grands modèles de langage (LLMs) et intègre des données avec Graph de Microsoft et les applications et services Microsoft 365 pour résumer, prédire et générer du contenu. À première vue, le service est assez anodin. Il reçoit des informations d’un utilisateur dans une application, comme Word. Cette incitation de l’utilisateur est ensuite analysée pour améliorer les chances d’obtenir quelque chose d’utile du service, puis envoyée au LLM pour traitement. Ce qui sort du LLM est post-traité avant d’être renvoyé à l’utilisateur.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du