Les entreprises de l’IA seraient tenues de divulguer les données d’entraînement protégées par le droit d’auteur en vertu du n

Par Emilia David, une journaliste qui couvre l’IA. Avant de rejoindre The Verge, elle a couvert l’intersection entre la technologie, les finances et l’économie. Deux élus ont déposé un projet de loi exigeant que les créateurs de modèles de base divulguent les sources de données d’entraînement afin que les titulaires de droits d’auteur sachent que leurs informations ont été prises. La loi sur la transparence des modèles de base de l’IA – déposée par les représentants Anna Eshoo (D-CA) et Don Beyer (D-VA) – demanderait à la Commission fédérale du commerce (FTC) de travailler avec l’Institut national de normes et de technologie (NIST) pour établir des règles de rapportage sur la transparence des données d’entraînement. Les entreprises qui fabriquent des modèles de base devront rendre compte des sources de données d’entraînement et de la façon dont elles sont conservées pendant le processus d’inférence, décrire les limitations ou les risques du modèle, comment le modèle s’aligne sur le cadre de gestion des risques en IA prévu par le NIST et toute autre norme fédérale pourrait être établie, et fournir des informations sur la puissance de calcul utilisée pour former et exécuter le modèle. Le projet de loi stipule également que les développeurs d’IA doivent rapporter leurs efforts pour «redémarrer» le modèle afin de l’empêcher de fournir des «informations inexactes ou nuisibles» autour de questions médicales ou de santé, de synthèse biologique, de cybersécurité, d’élections, de maintien de l’ordre, de décisions de prêt financier, d’éducation, de décisions d’emploi, de services publics et de populations vulnérables telles que les enfants. Le projet de loi souligne l’importance de la transparence des données d’entraînement en matière de droits d’auteur, car plusieurs procès ont été intentés contre des entreprises d’IA pour des allégations de contrefaçon. Il mentionne spécifiquement le cas des artistes contre Stability AI, Midjourney et Deviant Art (qui a été largement rejeté en octobre, selon VentureBeat), ainsi que la plainte de Getty Images contre Stability AI. «Avec l’accès accru du public à l’intelligence artificielle, il y a eu une augmentation des poursuites et des préoccupations publiques concernant la contrefaçon de droits d’auteur», est-il indiqué dans le projet de loi. «L’utilisation publique de modèles de base a conduit à de nombreux cas où le public est présenté avec des informations inexactes, imprécises ou partiales.»

Share the Post: