Les entreprises d’IA seraient tenues de divulguer les données d’entraînement protégées par le droit d’auteur en vertu d’un nouveau projet de loi.

Par Emilia David, une journaliste qui couvre l’intelligence artificielle. Avant de rejoindre The Verge, elle traitait des interactions entre la technologie, les finances et l’économie. Deux législateurs ont déposé un projet de loi qui exige des créateurs de modèles de base la divulgation des sources des données d’entraînement, de sorte que les détenteurs des droits d’auteur sachent que leurs informations ont été utilisées. La loi sur la transparence des modèles de base de l’intelligence artificielle, déposée par les représentants Anna Eshoo (D-CA) et Don Beyer (D-VA), chargerait la Federal Trade Commission (FTC) de travailler avec l’Institut national des normes et de la technologie (NIST) pour établir des règles de transparence des données d’entraînement. Les entreprises qui créent des modèles de base devront signaler les sources des données d’entraînement et la manière dont ces données sont conservées pendant le processus d’inférence. Elles devront décrire les limites ou les risques du modèle, comment celui-ci correspond au cadre de gestion des risques de l’IA prévu par le NIST, ainsi que tout autre standard fédéral qui pourrait être établi. De plus, elles devront fournir des informations sur la puissance de calcul utilisée pour l’entraînement et l’exécution du modèle. La loi stipule également que les développeurs d’IA doivent signaler les efforts déployés pour effectuer des tests de sécurité (« red teaming ») sur le modèle, afin d’éviter que celui-ci ne fournisse des informations inexactes ou préjudiciables concernant des questions médicales, de santé, de synthèse biologique, de cybersécurité, d’élections, de maintien de l’ordre, de décisions de prêt financier, d’éducation, de décisions en matière d’emploi, de services publics et de populations vulnérables telles que les enfants. La loi souligne l’importance de la transparence des données d’entraînement en matière de droits d’auteur, car plusieurs poursuites ont été intentées contre des entreprises d’IA pour violation des droits d’auteur. Elle mentionne notamment le cas des artistes contre Stability AI, Midjourney et Deviant Art (qui a été largement rejeté en octobre, selon VentureBeat), ainsi que la plainte de Getty Images contre Stability AI. « Avec l’augmentation de l’accès public à l’intelligence artificielle, il y a eu une augmentation des poursuites et des préoccupations publiques concernant la violation des droits d’auteur », déclare la loi. « L’utilisation publique de modèles de base a conduit à de nombreux cas où le public s’est vu présenter des informations inexactes, imprécises ou biaisées. »

Share the Post: