Les entreprises d’intelligence artificielle seraient tenues de divulguer les données d’entraînement protégées par des droits d’auteur en vertu du nouveau projet de loi.

Par Emilia David, une journaliste qui couvre l’IA. Avant de rejoindre The Verge, elle s’intéressait à la convergence entre technologie, finance et économie. Deux législateurs ont déposé un projet de loi demandant aux créateurs de modèles fondamentaux de divulguer les sources des données d’entraînement afin que les titulaires de droits d’auteur sachent que leurs informations ont été utilisées. La loi sur la transparence des modèles fondamentaux d’IA – déposée par les représentants Anna Eshoo (D-CA) et Don Beyer (D-VA) – demanderait à la Federal Trade Commission (FTC) de collaborer avec le National Institute of Standards and Technology (NIST) pour établir des règles de transparence concernant la déclaration des données d’entraînement. Les entreprises qui créent des modèles fondamentaux devront déclarer les sources des données d’entraînement et la manière dont les données sont conservées pendant le processus d’inférence, décrire les limites ou les risques du modèle, la manière dont le modèle s’aligne sur le cadre de gestion des risques d’IA prévu par le NIST et d’autres normes fédérales qui pourraient être établies, et fournir des informations sur la puissance de calcul utilisée pour l’entraînement et le fonctionnement du modèle. Le projet de loi indique également que les développeurs d’IA doivent rendre compte des efforts déployés pour « évaluer le modèle » afin d’empêcher qu’il ne fournisse des informations « inexactes ou dangereuses » concernant des questions médicales ou liées à la santé, la synthèse biologique, la cybersécurité, les élections, la police, les décisions financières en matière de prêts, l’éducation, les décisions d’emploi, les services publics et les populations vulnérables telles que les enfants. La loi souligne également l’importance de la transparence des données d’entraînement en matière de droit d’auteur, étant donné que plusieurs poursuites ont été intentées contre des entreprises d’IA alléguant une violation des droits d’auteur. Elle mentionne notamment le cas des artistes contre Stability AI, Midjourney et Deviant Art (qui a été largement rejeté en octobre, selon VentureBeat), ainsi que la plainte de Getty Images contre Stability AI. « Avec l’augmentation de l’accès du public à l’intelligence artificielle, il y a eu une augmentation des poursuites et des préoccupations du public concernant la violation des droits d’auteur », indique le projet de loi. « L’utilisation publique de modèles fondamentaux a conduit à d’innombrables cas où le public s’est vu présenter des informations inexactes, imprécises ou biaisées. »

Share the Post: