La controverse sur le droit d’auteur en IA s’intensifie : le vice-président de la stabilité démissionne en protestation contre l’excuse de l’util

Le VP de l’audio chez Stability AI a décidé que sa position au sein de la startup de génération de contenu était untenable, compte tenu de sa croyance en la protection des droits d’auteur des artistes et de la position maintenant ancienne de son employeur selon laquelle l’entraînement de modèles de machine learning sur des œuvres protégées par des droits d’auteur est légalement accepté. « J’ai démissionné de mon poste de chef de l’équipe audio chez Stability AI, car je ne suis pas d’accord avec l’opinion de l’entreprise selon laquelle l’entraînement d’un modèle AI génératif sur des œuvres protégées par des droits d’auteur est un ‘usage équitable' », a écrit l’ancien vice-président Ed Newton-Rex sur les médias sociaux. Des opérations comme Stability, qui développent des systèmes IA capables de générer un contenu synthétique à partir de conversations en langage naturel avec des utilisateurs, entraînent souvent leurs modèles sur une énorme quantité d’informations collectées sur Internet. Les œuvres protégées par des droits d’auteur sont inévitablement prises dans les collections de données d’entraînement. Avoir plus de données améliore les capacités de ces modèles à produire du contenu sur différents thèmes et styles, mais les artistes et les juristes affirment que les réseaux neuronaux, après avoir été entraînés sur la créativité humaine, copient aussi injustement le travail intellectuel des humains en imitant ou en copiant de manière très proche leurs œuvres d’art, leurs écrits, leur musique, leur code, etc. Quelques artistes, écrivains et humoristes ont même poursuivi en justice des startups IA, les accusant de violer les lois sur le droit d’auteur. Les créateurs se plaignent de perdre des ventes et des redevances car les modèles entraînés peuvent émettre du contenu similaire ou identique à leur travail sur demande pour les internautes.

Share the Post: