« Si vous donnez les rênes à Copilot, ne soyez pas surpris quand il révèle vos secrets. »

« Le Black Hat One espère que les logiciels d’entreprise largement utilisés sont sécurisés. Préparez-vous à voir ces espoirs à nouveau anéantis, car le CTO de Zenity, Michael Bargury, a révélé aujourd’hui ses exploits avec Microsoft Copilot au Black Hat. « Il est en réalité très difficile de créer un bot [Copilot Studio] qui soit sécurisé, » a déclaré Bargury à The Register lors d’une interview avant ses présentations lors de la conférence, « car tous les paramètres par défaut sont insécurisés. » Bargury discutera à deux reprises des failles de sécurité de Microsoft Copilot au Black Hat à Las Vegas cette semaine. Sa première présentation était axée sur le Copilot Studio mentionné ci-dessus, l’outil de Microsoft sans code pour construire des bots Copilot d’entreprise personnalisés. La seconde couvrait toutes les mauvaises choses qu’un attaquant peut faire avec Copilot lui-même s’ils parviennent à s’infiltrer dans les systèmes d’une organisation qui utilise cette technologie, ainsi que la manière d’utiliser Copilot pour obtenir cet accès initial. Zenity, pour ce que cela vaut, propose entre autres des contrôles de sécurité pour Copilot et des assistants d’entreprise similaires. Gardez cela à l’esprit. Il met en garde contre les risques liés à l’utilisation des services d’IA de Microsoft ici. Si vous n’avez pas beaucoup d’expérience avec Copilot Studio, c’est un outil destiné aux personnes non techniques pour créer des bots conversationnels simples, utilisant l’IA Copilot de Microsoft, qui peuvent répondre aux questions des gens en utilisant des documents et des données internes de l’entreprise. Cela est rendu possible grâce à ce qu’on appelle la génération augmentée par récupération, ou RAG. »

Share the Post: