Les entreprises d’IA seraient tenues de divulguer les données d’entraînement protégées par des droits d’auteur en vertu d’un nouveau projet de loi.

Par Emilia David, une journaliste spécialisée dans l’intelligence artificielle. Avant de rejoindre The Verge, elle couvrait l’intersection entre la technologie, la finance et l’économie. Deux législateurs ont déposé un projet de loi exigeant que les créateurs de modèles de base divulguent les sources des données d’entraînement afin que les détenteurs des droits d’auteur sachent que leurs informations ont été utilisées. L’AI Foundation Model Transparency Act, déposé par les représentants Anna Eshoo (D-CA) et Don Beyer (D-VA), demanderait à la Federal Trade Commission (FTC) de travailler avec l’Institut national des normes et de la technologie (NIST) pour établir des règles relatives à la transparence des données d’entraînement. Les entreprises qui créent des modèles de base devront rendre compte des sources des données d’entraînement et de la manière dont ces données sont conservées lors du processus d’inférence, décrire les limites ou les risques du modèle, indiquer comment le modèle est conforme au cadre de gestion des risques de l’IA du NIST ainsi qu’à d’autres normes fédérales qui pourraient être établies, et fournir des informations sur la puissance de calcul utilisée pour former et exécuter le modèle. Le projet de loi stipule également que les développeurs d’IA doivent rendre compte des efforts déployés pour  »tester » le modèle afin d’éviter qu’il ne fournisse des informations  »inexactes ou dangereuses » sur des questions médicales ou liées à la santé, à la synthèse biologique, à la cybersécurité, aux élections, aux décisions de prêt financier, à l’éducation, aux décisions d’emploi, aux services publics et aux populations vulnérables telles que les enfants. Le projet de loi souligne l’importance de la transparence des données d’entraînement en matière de droits d’auteur, car plusieurs poursuites ont été intentées contre des entreprises d’IA pour violation de droits d’auteur. Il mentionne spécifiquement l’affaire opposant des artistes à Stability AI, Midjourney et Deviant Art (qui a été largement rejetée en octobre, selon VentureBeat), ainsi que la plainte de Getty Images contre Stability AI.  »Avec l’augmentation de l’accès du public à l’intelligence artificielle, il y a eu une augmentation des litiges et des préoccupations publiques concernant la violation des droits d’auteur », indique le projet de loi.  »L’utilisation publique de modèles de base a entraîné de nombreux cas où le public s’est vu présenté des informations inexactes, imprécises ou biaisées ».

Share the Post: