Des chercheurs en intelligence artificielle de Microsoft ont accidentellement exposé des téraoctets de données internes sensibles.

Les chercheurs en IA de Microsoft ont accidentellement exposé des dizaines de téraoctets de données sensibles, y compris des clés privées et des mots de passe, lors de la publication d’un bucket de stockage de données d’entraînement open source sur GitHub. Dans une recherche partagée avec TechCrunch, Wiz, une startup de sécurité cloud, a déclaré avoir découvert un dépôt GitHub appartenant à la division de recherche en IA de Microsoft dans le cadre de son travail en cours sur l’exposition accidentelle de données hébergées sur le cloud. Les lecteurs du dépôt GitHub, qui fournissait du code open source et des modèles IA pour la reconnaissance d’images, étaient invités à télécharger les modèles à partir d’une URL Azure Storage. Cependant, Wiz a constaté que cette URL était configurée pour accorder des autorisations sur l’ensemble du compte de stockage, exposant ainsi des données privées supplémentaires par erreur. Ces données comprenaient 38 téraoctets d’informations sensibles, notamment les sauvegardes personnelles de deux ordinateurs personnels de employés de Microsoft. Les données contenaient également d’autres données personnelles sensibles, y compris les mots de passe pour les services Microsoft, les clés secrètes et plus de 30 000 messages internes Microsoft Teams de plusieurs employés de Microsoft. L’URL, qui a exposé ces données depuis 2020, était également mal configurée pour autoriser les autorisations «full control» plutôt que «read only», selon Wiz, ce qui signifie que toute personne connaissant l’emplacement pourrait potentiellement supprimer, remplacer et injecter du contenu malveillant.

Share the Post: