Par Emilia David, reporter couvrant l’IA. Avant de rejoindre The Verge, elle a couvert l’intersection entre la technologie, les finances et l’économie. Adobe et d’autres entreprises ont établi un symbole qui peut être attaché à du contenu en même temps que des métadonnées, établissant ainsi sa provenance, y compris si elle a été créée à l’aide d’outils d’IA. Le symbole, que Adobe appelle «icône de transparence», peut être ajouté via les plateformes de montage photo et vidéo d’Adobe comme Photoshop ou Premiere, et éventuellement le générateur d’images Bing de Microsoft. Il sera ajouté aux métadonnées des images, vidéos et fichiers PDF pour annoncer qui en est le propriétaire et l’a créé. Lorsque les spectateurs regardent une photo en ligne, ils peuvent passer au-dessus du marqueur et une fenêtre contextuelle s’ouvrira, incluant des informations sur sa propriété, l’outil d’IA utilisé pour la créer et d’autres détails sur la production du contenu. Adobe a développé le symbole avec d’autres entreprises dans le cadre de la Coalition for Content Provenance and Authenticity (C2PA), un groupe qui cherche à créer des normes techniques pour certifier la source et la provenance du contenu. (Il utilise les initiales «CR», qui signifient «Credentials de contenu» de façon confuse, pour éviter toute confusion avec l’icône de Creative Commons.) Les autres membres de la C2PA incluent Arm, Intel, Microsoft et Truepic. La C2PA détient la marque déposée du symbole. Andy Parsons, directeur principal de l’Initiative de l’authenticité du contenu d’Adobe, a déclaré à The Verge que le symbole agissait comme une sorte de «étiquette nutritionnelle», indiquant aux gens la provenance du contenu. La présence du symbole est censée encourager l’étiquetage des données générées par l’IA, comme l’a déclaré Parsons, car cela permet une plus grande transparence quant à la manière dont le contenu a été créé.
« Agent IA se promeut au poste de sysadmin, perturbe la séquence de démarrage »
Buck Shlegeris, PDG de Redwood Research, un organisme à but non lucratif qui explore les risques posés par l’intelligence artificielle,