L’outil AI de Slack alimenté par LLM peut être manipulé pour divulguer des données sensibles provenant de canaux privés lors d’une nouvelle attaque d’ingénierie de prompt, selon des chercheurs en sécurité. Un rapport des spécialistes en sécurité LLM chez PromptArmor détaille une voie potentielle pour que les cybercriminels utilisent des techniques d’injection de prompt indirectes pour manipuler l’AI de Slack afin de divulguer des données des canaux auxquels ils ne participent pas. L’AI de Slack est une fonctionnalité intégrée à la plateforme de messagerie qui permet aux utilisateurs de consulter des messages en langage naturel. Initialement, la fonction était limitée au traitement des messages dans le canal, mais depuis le 14 août, l’AI peut également ingérer des informations à partir de documents téléchargés et de fichiers Google Drive. L’attaque nécessite que les attaquants utilisent des requêtes spécialement conçues pour forcer le modèle à se comporter de manière néfaste. Cette méthode particulière repose sur des techniques d’injection de prompt, les pirates exploitant l’incapacité d’un LLM à distinguer entre un prompt système créé par un développeur et le reste du contexte qui est ajouté à la requête.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du