« Comment le système de filigrane ‘IA’ poussé par Microsoft et Adobe fonctionnera et ne fonctionnera pas »

Les grandes entreprises telles que Microsoft et Adobe ont promis cette semaine d’ajouter des métadonnées à leurs images générées par IA afin que les futures applications compatibles puissent les repérer en tant qu’images produites par une machine, à l’aide d’un symbole spécial. Vous avez peut-être vu certains reportages à ce sujet décrits peut-être comme une sorte de filigrane IA. Nous avons donc fait une enquête plus approfondie. Le symbole, décrit comme «icône de transparence», représente les lettres «cr» en minuscules à l’intérieur d’une bulle en forme de guillemets. Il a été créé par la Coalition for Content Provenance and Authenticity (C2PA), un groupe d’organisations de différents secteurs, notamment la technologie et les médias. La C2PA existe depuis environ deux ans; est menée par Adobe, Arm, Intel, Microsoft et Truepic; et précise en détail comment les métadonnées d’une image peuvent certifier de manière sécurisée, par voie numérique, l’origine et l’historique des modifications de cette image. Il existe des approches alternatives ainsi que des métadonnées d’images traditionnelles; C2PA propose une approche soutenue par les grandes entreprises susmentionnées. En fait, vous pouvez utiliser les métadonnées Content Credentials de C2PA pour n’importe quelle image, elle n’a pas besoin d’être générée par IA. Les exemples donnés sur le site Web de Content Credentials ont été réalisés à l’aide des outils Photoshop et Firefly AI d’Adobe, et peuvent être identifiés comme tels grâce à leurs métadonnées. Ce que Microsoft, Adobe et d’autres ont promis de faire, c’est de s’assurer que leurs générateurs IA incluront à un moment donné dans le futur ces métadonnées cryptographiquement signées dans leurs images conçues par machine. L’objectif est de fournir une façon pour les gens de savoir si une image a été modélisée ou produite par un être humain, et comment.

Share the Post: