Cet outil de pollution de données permet aux artistes de se défendre contre l’IA générative.

L’outil, appelé Nightshade, perturbe les données d’entraînement de manière à provoquer des dégâts importants pour les modèles d’IA générant des images. Un nouvel outil permet aux artistes d’apporter des modifications invisibles aux pixels de leurs œuvres avant de les télécharger en ligne, de sorte que, si elles sont collectées dans un ensemble d’entraînement pour IA, elles puissent provoquer des dysfonctionnements chaotiques et imprévisibles du modèle résultant. L’outil, appelé Nightshade, est conçu comme une façon de lutter contre les entreprises d’IA qui utilisent les travaux des artistes pour entraîner leurs modèles sans la permission du créateur. Son utilisation pour «empoisonner» ces données d’entraînement pourrait endommager les futures itérations des modèles d’IA générant des images, tels que DALL-E, Midjourney et Stable Diffusion, en rendant certains de leurs résultats inutilisables – les chiens deviennent des chats, les voitures deviennent des vaches, et ainsi de suite. MIT Technology Review a eu un aperçu exclusif de la recherche, qui a été soumise pour examen par les pairs au congrès de sécurité informatique Usenix. Les entreprises d’IA telles qu’OpenAI, Meta, Google et Stability AI font face à un flot de poursuites de la part d’artistes qui affirment que leur matériel protégé par le droit d’auteur et leurs informations personnelles ont été collectés sans consentement ni compensation. Ben Zhao, professeur à l’université de Chicago, qui a dirigé l’équipe qui a créé Nightshade, explique que l’espoir est qu’il permettra de renverser le rapport de force en faveur des artistes, en créant un puissant découragement à l’encontre du manque de respect du droit d’auteur et de la propriété intellectuelle des artistes. Meta, Google, Stability AI et OpenAI n’ont pas répondu aux demandes de commentaires de MIT Technology Review sur la façon dont ils pourraient réagir. L’équipe de Zhao a également développé Glaze, un outil qui permet aux artistes de «masquer» leur propre style personnel pour empêcher qu’il ne soit collecté par les entreprises d’IA. Il fonctionne de manière similaire à Nightshade: en modifiant les pixels des images de manière subtile et invisible pour l’œil humain, mais en manipulant les modèles d’apprentissage machine pour interpréter l’image comme quelque chose de différent de ce qu’elle montre réellement.

Share the Post: