Cet nouvel outil de pollution de données permet aux artistes de lutter contre l’IA générative.

L’outil, appelé Nightshade, perturbe les données d’entraînement de manière à causer des dommages sérieux aux modèles d’IA générant des images. Un nouvel outil permet aux artistes d’apporter des modifications invisibles aux pixels de leurs œuvres avant de les télécharger en ligne, de sorte que, si elles sont collectées dans un jeu d’entraînement d’IA, elles puissent provoquer des dysfonctionnements chaotiques et imprévisibles du modèle résultant. L’outil, appelé Nightshade, est destiné à lutter contre les entreprises d’IA qui utilisent les œuvres d’artistes pour entraîner leurs modèles sans la permission du créateur. Son utilisation pour «empoisonner» ces données d’entraînement pourrait endommager les futures itérations de modèles d’IA générant des images, tels que DALL-E, Midjourney et Stable Diffusion, en rendant certains de leurs résultats inutilisables – les chiens deviennent des chats, les voitures deviennent des vaches, etc. MIT Technology Review a eu un aperçu exclusif de la recherche, qui a été soumise à une évaluation par les pairs au Congrès de sécurité informatique Usenix. Les entreprises d’IA telles que OpenAI, Meta, Google et Stability AI font face à un nombre croissant de poursuites de la part d’artistes qui affirment que leur matériel protégé par le droit d’auteur et leurs informations personnelles ont été collectées sans consentement ni compensation. Ben Zhao, professeur à l’université de Chicago, qui a dirigé l’équipe qui a créé Nightshade, explique que l’espoir est qu’il permettra de redresser la balance des pouvoirs en faveur des artistes, en créant un puissant désincentif à mépriser les droits d’auteur et la propriété intellectuelle des artistes. Meta, Google, Stability AI et OpenAI n’ont pas répondu aux demandes de commentaires de MIT Technology Review sur la façon dont ils pourraient réagir. L’équipe de Zhao a également développé Glaze, un outil qui permet aux artistes de «masquer» leur propre style personnel pour l’empêcher d’être collecté par les entreprises d’IA. Il fonctionne de manière similaire à Nightshade: en modifiant les pixels des images de manière subtile et invisible pour l’œil humain, mais en manipulant les modèles d’apprentissage automatique pour les interpréter comme quelque chose de différent de ce qu’ils montrent réellement.

Share the Post: