Cet nouvel outil de contamination de données permet aux artistes de se défendre contre les AI génératifs.

L’outil, appelé Nightshade, perturbe les données d’entraînement de manière à causer des dommages sérieux aux modèles d’IA générateurs d’images. Un nouvel outil permet aux artistes de modifier les pixels de leurs œuvres de manière invisible avant de les télécharger en ligne, de sorte que, s’ils sont intégrés dans un ensemble d’entraînement d’IA, cela puisse entraîner une rupture des résultats de manière chaotique et imprévisible. L’outil, appelé Nightshade, est destiné à lutter contre les entreprises d’IA qui utilisent les travaux d’artistes pour entraîner leurs modèles sans la permission du créateur. En leur «empoisonnant» ces données d’entraînement, il serait possible de détériorer les futures itérations de modèles d’IA générateurs d’images, comme DALL-E, Midjourney et Stable Diffusion, rendant certains de leurs résultats inutilisables – les chiens deviennent des chats, les voitures deviennent des vaches, et ainsi de suite. MIT Technology Review a eu un aperçu exclusif de la recherche, qui a été soumise à un examen par les pairs au congrès de sécurité informatique Usenix. Les entreprises d’IA telles que OpenAI, Meta, Google et Stability AI font face à une multitude de poursuites d’artistes qui affirment que leur matériel protégé par le droit d’auteur et leurs informations personnelles ont été collectés sans consentement ni compensation. Ben Zhao, professeur à l’université de Chicago, qui a dirigé l’équipe qui a créé Nightshade, a déclaré que l’espoir était qu’il puisse aider à renverser la balance du pouvoir des entreprises d’IA en faveur des artistes, en créant un puissant déterrent contre le manque de respect du droit d’auteur et de la propriété intellectuelle des artistes. Meta, Google, Stability AI et OpenAI n’ont pas répondu aux demandes de commentaires de MIT Technology Review sur la façon dont ils pourraient réagir. L’équipe de Zhao a également développé Glaze, un outil qui permet aux artistes de «masquer» leur propre style personnel pour l’empêcher d’être collecté par les entreprises d’IA. Il fonctionne de manière similaire à Nightshade: en modifiant les pixels des images de manière subtile et invisible pour les yeux humains, mais en manipulant les modèles d’apprentissage automatique pour qu’ils interprètent l’image comme quelque chose de différent de ce qu’elle montre réellement.

Share the Post: