Par Emilia David, une journaliste qui couvre l’IA. Avant de rejoindre The Verge, elle traitait de l’intersection entre la technologie, la finance et l’économie. Deux législateurs ont déposé un projet de loi exigeant des créateurs de modèles fondamentaux de divulguer les sources des données d’entraînement afin que les titulaires de droits d’auteur sachent que leurs informations ont été utilisées. L’AI Foundation Model Transparency Act, déposée par les représentantes Anna Eshoo (D-CA) et Don Beyer (D-VA), demanderait à la Commission fédérale du commerce (FTC) de collaborer avec l’Institut national des normes et de la technologie (NIST) pour établir des règles de transparence en matière de données d’entraînement. Les entreprises qui produisent des modèles fondamentaux devront déclarer les sources des données d’entraînement et la façon dont les données sont conservées pendant le processus d’inférence, décrire les limites ou les risques du modèle, la manière dont le modèle est conforme au cadre de gestion des risques en intelligence artificielle prévu par le NIST et tout autre norme fédérale qui pourrait être établie, et fournir des informations sur la puissance de calcul utilisée pour former et exécuter le modèle. Le projet de loi précise également que les développeurs d’IA doivent rendre compte des efforts déployés pour « tester à l’aveugle » le modèle afin d’éviter qu’il ne fournisse des informations « inexactes ou nuisibles » sur des questions médicales ou liées à la santé, la synthèse biologique, la cybersécurité, les élections, la police, les décisions de prêt financier, l’éducation, les décisions d’emploi, les services publics et les populations vulnérables telles que les enfants. Le projet de loi souligne également l’importance de la transparence des données d’entraînement en matière de droits d’auteur, car plusieurs poursuites ont été intentées contre des entreprises d’IA pour violation de droits d’auteur. Il mentionne notamment l’affaire des artistes contre Stability AI, Midjourney et Deviant Art (qui a été en grande partie rejetée en octobre, selon VentureBeat), ainsi que la plainte de Getty Images contre Stability AI. « Avec l’augmentation de l’accès du public à l’intelligence artificielle, il y a eu une augmentation des poursuites et des préoccupations du public concernant la violation des droits d’auteur », indique le projet de loi. « L’utilisation publique de modèles fondamentaux a conduit à de nombreux cas d’informations inexactes, imprécises ou biaisées présentées au public. »
‘NVIDIA Avance l’Apprentissage Robotique et le Développement Humanoid avec de Nouveaux Outils d’IA et de Simulation’
Cette semaine à la Conférence sur l’apprentissage des robots (CoRL) à Munich, en Allemagne, NVIDIA a divulgué une pléthore de