L’outil IA alimenté par LLM de Slack peut être trompé pour divulguer des données sensibles provenant de canaux privés dans une nouvelle attaque d’ingénierie de prompts, selon des chercheurs en sécurité. Un rapport des spécialistes en sécurité LLM de PromptArmor détaille un chemin potentiel pour que les cybercriminels utilisent des techniques d’injection de prompts indirects pour manipuler l’IA de Slack et divulguer des données provenant de canaux auxquels ils ne participent pas. L’IA de Slack est une fonctionnalité intégrée à la plateforme de messagerie qui permet aux utilisateurs de consulter des messages en langage naturel. Initialement, la fonctionnalité se limitait à traiter uniquement les messages dans le canal, mais depuis le 14 août, l’IA peut également ingérer des informations à partir de documents téléchargés et de fichiers Google Drive. L’attaque nécessite que les attaquants utilisent des requêtes spécialement conçues pour forcer le modèle à se comporter de manière nuisible. Cette méthode particulière repose sur des techniques d’injection de prompts, par lesquelles les pirates informatiques exploitent l’incapacité d’un LLM à distinguer entre un prompt système créé par un développeur et le reste du contexte qui est ajouté à la requête.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du