Les entreprises de l’IA devraient divulguer les données d’entraînement protégées par des droits d’auteur en vertu d’un nou

Par Emilia David, une reporter qui couvre l’IA. Avant de rejoindre The Verge, elle a couvert l’intersection entre la technologie, les finances et l’économie. Deux législateurs ont déposé un projet de loi exigeant que les créateurs de modèles de fondation divulguent les sources des données d’entraînement afin que les titulaires de droits d’auteur sachent que leurs informations ont été prises. La loi sur la transparence des modèles de fondation d’IA – déposée par les représentants Anna Eshoo (D-CA) et Don Beyer (D-VA) – demanderait à la Federal Trade Commission (FTC) de collaborer avec le National Institute of Standards and Technology (NIST) pour établir des règles concernant la divulgation des données d’entraînement. Les entreprises qui fabriquent des modèles de fondation devront signaler les sources de données d’entraînement et comment les données sont conservées pendant le processus d’inférence, décrire les limitations ou les risques du modèle, comment le modèle s’aligne sur le cadre de gestion des risques en IA prévu par le NIST et tout autre norme fédérale qui pourrait être établie, et fournir des informations sur la puissance de calcul utilisée pour former et exécuter le modèle. Le projet de loi stipule également que les développeurs d’IA doivent signaler leurs efforts pour «redéfinir» le modèle afin qu’il ne fournisse pas d’«informations inexactes ou nocives» concernant des questions médicales ou de santé, la synthèse biologique, la cybersécurité, les élections, la police, les prêts financiers, l’éducation, les décisions d’emploi, les services publics et les populations vulnérables telles que les enfants. Le projet de loi souligne l’importance de la transparence des données d’entraînement en matière de droit d’auteur, car plusieurs poursuites ont été intentées contre des entreprises d’IA pour violation du droit d’auteur. Il mentionne spécifiquement le cas des artistes contre Stability AI, Midjourney et Deviant Art (qui a été largement rejeté en octobre, selon VentureBeat), ainsi que la plainte de Getty Images contre Stability AI. «Avec l’accès accru du public à l’intelligence artificielle, il y a eu une augmentation des procès et des préoccupations publiques concernant la violation du droit d’auteur», indique le projet de loi. «L’utilisation publique des modèles de fondation a conduit à de nombreux cas dans lesquels le public est présenté avec des informations inexactes, imprécises ou partiales.»

Share the Post: