Cet nouvel outil de contamination de données permet aux artistes de se défendre contre l’intelligence artificielle générative.

L’outil, appelé Nightshade, altère les données d’entraînement de manière à causer des dommages graves aux modèles d’IA générateurs d’images. Un nouvel outil permet aux artistes d’ajouter des modifications invisibles aux pixels de leurs œuvres avant de les télécharger en ligne afin que, si elles sont récupérées dans un jeu d’entraînement d’IA, elles puissent provoquer des dysfonctionnements chaotiques et imprévisibles du modèle résultant. L’outil, appelé Nightshade, est conçu comme un moyen de lutter contre les entreprises d’IA qui utilisent les travaux des artistes pour entraîner leurs modèles sans la permission du créateur. L’utilisation de celui-ci pour « empoisonner » ces données d’entraînement pourrait endommager les futures itérations de modèles d’IA génératrices d’images, tels que DALL-E, Midjourney et Stable Diffusion, en rendant certaines de leurs sorties inutilisables – les chiens deviennent des chats, les voitures deviennent des vaches, etc. MIT Technology Review a eu un aperçu exclusif de la recherche, qui a été soumise à une évaluation par les pairs au cours de la conférence de sécurité informatique Usenix. Les entreprises d’IA telles que OpenAI, Meta, Google et Stability AI font face à une multitude de poursuites de la part d’artistes qui affirment que leur matériel protégé par le copyright et leurs informations personnelles ont été récupérés sans consentement ou compensation. Ben Zhao, professeur à l’université de Chicago, qui a dirigé l’équipe qui a créé Nightshade, a déclaré que l’espoir est qu’il permettra de renverser le rapport de force en faveur des artistes, en créant un puissant découragement à l’encontre du mépris du copyright et de la propriété intellectuelle des artistes. Meta, Google, Stability AI et OpenAI n’ont pas répondu aux demandes de commentaires de MIT Technology Review sur la manière dont ils pourraient réagir. L’équipe de Zhao a également développé Glaze, un outil qui permet aux artistes de « masquer » leur propre style personnel pour l’empêcher d’être récupéré par les entreprises d’IA. Il fonctionne de manière similaire à Nightshade: en modifiant les pixels des images de manière subtile et invisible pour l’œil humain, mais en manipulant les modèles d’apprentissage automatique pour qu’ils interprètent l’image comme quelque chose de différent de ce qu’elle montre réellement.

Share the Post: