Les entreprises de IA devraient divulguer les données d’entraînement protégées par le droit d’auteur en vertu du nouveau projet

Par Emilia David, une journaliste qui couvre l’IA. Avant de rejoindre The Verge, elle a couvert l’intersection entre la technologie, la finance et l’économie. Deux élus ont déposé un projet de loi exigeant que les créateurs de modèles de fondation divulguent les sources de données d’entraînement afin que les titulaires de droits d’auteur sachent que leurs informations ont été prises. La loi sur la transparence des modèles de fondation IA – déposée par les représentants Anna Eshoo (D-CA) et Don Beyer (D-VA) – obligerait la Commission fédérale du commerce (FTC) à collaborer avec l’Institut national de normes et de technologie (NIST) pour établir des règles de rapports sur la transparence des données d’entraînement. Les entreprises qui fabriquent des modèles de fondation devront indiquer les sources de données d’entraînement et la manière dont les données sont conservées pendant le processus d’inférence, décrire les limitations ou les risques du modèle, comment le modèle s’aligne sur le cadre de gestion des risques IA prévu par le NIST et tout autre normes fédérales pourraient être établies, et fournir des informations sur la puissance de calcul utilisée pour entraîner et exécuter le modèle. Le projet de loi stipule également que les développeurs d’IA doivent signaler les efforts déployés pour «équiper l’équipe» du modèle afin de l’empêcher de fournir des «informations inexactes ou nuisibles» sur des questions médicales ou de santé, une synthèse biologique, la cybersécurité, les élections, la police, les prêts financiers, l’éducation, les décisions d’emploi, les services publics et les populations vulnérables telles que les enfants. Le projet de loi souligne l’importance de la transparence des données d’entraînement en matière de droit d’auteur, car plusieurs poursuites ont été intentées contre des entreprises d’IA pour violation du droit d’auteur. Il mentionne spécifiquement le cas des artistes contre Stability AI, Midjourney et Deviant Art (qui a été largement rejeté en octobre, selon VentureBeat), ainsi que la plainte de Getty Images contre Stability AI. «Avec l’accès public accru à l’intelligence artificielle, il y a eu une augmentation du nombre de poursuites et des préoccupations publiques concernant les violations du droit d’auteur», indique le projet de loi. «L’utilisation publique de modèles de fondation a conduit à d’innombrables cas de présentation au public d’informations inexactes, imprécises ou biaisées.»

Share the Post: