Les entreprises de l’IA seraient tenues de divulguer les données d’entraînement protégées par le droit d’auteur en vertu du n

Par Emilia David, une reporter qui couvre l’IA. Avant de rejoindre The Verge, elle a couvert l’intersection entre la technologie, les finances et l’économie. Deux législateurs ont déposé un projet de loi exigeant que les créateurs de modèles de fondation divulguent les sources de données d’entraînement afin que les titulaires de droits d’auteur sachent que leurs informations ont été prises. Le projet de loi sur la transparence des modèles de fondation IA – déposé par les représentants Anna Eshoo (D-CA) et Don Beyer (D-VA) – dirigerait la Federal Trade Commission (FTC) à travailler avec l’Institut national des normes et de technologie (NIST) pour établir des règles de rapports sur la transparence des données d’entraînement. Les entreprises qui fabriquent des modèles de fondation seront tenues de rapporter les sources de données d’entraînement et la façon dont les données sont conservées pendant le processus d’inférence, de décrire les limitations ou les risques du modèle, comment le modèle s’aligne sur le cadre de gestion des risques IA prévu par le NIST et tout autre norme fédérale pourrait être établie, et de fournir des informations sur la puissance de calcul utilisée pour former et exécuter le modèle. Le projet de loi indique également que les développeurs d’IA doivent rapporter les efforts déployés pour «équipe rouge» le modèle afin de l’empêcher de fournir des «informations inexactes ou nuisibles» autour des questions médicales ou de la santé, de la synthèse biologique, de la cybersécurité, des élections, du maintien de l’ordre, des décisions de prêt financiers, de l’éducation, des décisions d’emploi, des services publics et des populations vulnérables telles que les enfants. Le projet de loi met l’accent sur l’importance de la transparence des données d’entraînement en matière de droits d’auteur, car plusieurs procès ont été intentés contre des entreprises d’IA pour violation de droits d’auteur. Il mentionne spécifiquement le cas des artistes contre Stability AI, Midjourney et Deviant Art (qui a été largement rejeté en octobre, selon VentureBeat), ainsi que la plainte de Getty Images contre Stability AI. «Avec l’accroissement de l’accès public à l’intelligence artificielle, il y a eu une augmentation des poursuites et des préoccupations publiques concernant la violation des droits d’auteur», indique le projet de loi. «L’utilisation publique des modèles de fondation a conduit à de nombreux cas où le public est présenté avec des informations inexactes, imprécises ou partiales.»

Share the Post: