Les pirates pourraient tromper les fonctionnalités d’IA de Slack pour exposer les messages des canaux privés.

L’outil AI de Slack alimenté par LLM peut être manipulé pour divulguer des données sensibles provenant de canaux privés lors d’une nouvelle attaque d’ingénierie de prompt, selon des chercheurs en sécurité. Un rapport des spécialistes en sécurité LLM chez PromptArmor détaille une voie potentielle pour que les cybercriminels utilisent des techniques d’injection de prompt indirectes pour manipuler l’AI de Slack afin de divulguer des données des canaux auxquels ils ne participent pas. L’AI de Slack est une fonctionnalité intégrée à la plateforme de messagerie qui permet aux utilisateurs de consulter des messages en langage naturel. Initialement, la fonction était limitée au traitement des messages dans le canal, mais depuis le 14 août, l’AI peut également ingérer des informations à partir de documents téléchargés et de fichiers Google Drive. L’attaque nécessite que les attaquants utilisent des requêtes spécialement conçues pour forcer le modèle à se comporter de manière néfaste. Cette méthode particulière repose sur des techniques d’injection de prompt, les pirates exploitant l’incapacité d’un LLM à distinguer entre un prompt système créé par un développeur et le reste du contexte qui est ajouté à la requête.

Share the Post: