L’outil, appelé Nightshade, détruit les données d’entraînement de manière à causer des dommages graves aux modèles d’IA générateurs d’images. Un nouvel outil permet aux artistes d’apporter des modifications invisibles aux pixels de leurs œuvres avant de les télécharger en ligne, de sorte que, s’ils sont collectés dans un ensemble d’entraînement d’IA, ils puissent provoquer la rupture du modèle résultant de manière chaotique et imprévisible. L’outil, appelé Nightshade, est destiné à lutter contre les entreprises d’IA qui utilisent les œuvres des artistes pour entraîner leurs modèles sans la permission du créateur. En l’utilisant pour «empoisonner» ces données d’entraînement, il serait possible de nuire aux futures itérations de modèles d’IA générateurs d’images, tels que DALL-E, Midjourney et Stable Diffusion, en rendant certains de leurs résultats inutilisables – les chiens deviennent des chats, les voitures deviennent des vaches, et ainsi de suite. MIT Technology Review a obtenu une prévisualisation exclusive de la recherche, qui a été soumise à la revue par les pairs au colloque de sécurité informatique Usenix. Les entreprises d’IA telles que OpenAI, Meta, Google et Stability AI font face à une multitude de poursuites de la part d’artistes qui affirment que leur matériel protégé par le droit d’auteur et leurs informations personnelles ont été collectés sans consentement ni compensation. Ben Zhao, professeur à l’université de Chicago, qui a dirigé l’équipe qui a créé Nightshade, affirme que l’espoir est qu’il permettra de renverser la balance des pouvoirs en faveur des artistes, en créant un puissant deterrent contre le manque de respect du droit d’auteur et de la propriété intellectuelle des artistes. Meta, Google, Stability AI et OpenAI n’ont pas répondu aux demandes de commentaires de MIT Technology Review sur la façon dont ils pourraient réagir. L’équipe de Zhao a également développé Glaze, un outil qui permet aux artistes de «masquer» leur propre style personnel pour l’empêcher d’être collecté par des entreprises d’IA. Il fonctionne de manière similaire à Nightshade: en modifiant les pixels des images de manière subtile et invisible pour les yeux humains, mais en permettant aux modèles d’apprentissage automatique de les interpréter comme quelque chose de différent de ce qu’ils montrent réellement.
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle
Les Problèmes Communs Rencontrés par la Société dans l’Utilisation Efficace des Derniers Développements de l’Intelligence Artificielle Introduction L’intelligence artificielle (IA)