Les filigranes sur l’art IA sont un jeu futile de cache-cache numérique.

IA en bref L’ajout de filigranes visibles ou invisibles aux images pour identifier si elles sont créées par une IA ne suffira pas à empêcher la manipulation de contenu et la diffusion de désinformation en ligne, avertissent les experts. Les signatures visibles telles que le modèle DALL-E de OpenAI, qui superpose une rangée de carrés colorés en bas de ses images, sont les plus faciles à contourner. Ces marques peuvent être facilement supprimées en recadrant, en enregistrant ou en copiant l’image de manière à contourner le téléchargement direct. Les filigranes invisibles, tels que SynthID de Google DeepMind, sont plus difficiles à effacer car ils sont directement intégrés dans les sorties du système Imagen. Cependant, il n’est pas impossible pour des individus malintentionnés ayant des connaissances techniques de s’en débarrasser, selon Siwei Lyu, professeur d’informatique spécialisé dans la police scientifique numérique à l’Université de Buffalo aux États-Unis, cité par FedScoop. « La technologie de filigrane doit être prise avec des pincettes, car quelqu’un ayant des connaissances en filigranes et en IA peut facilement la contourner, supprimer le filigrane ou en fabriquer un », a-t-il déclaré. « Je pense que les filigranes jouent principalement sur l’ignorance des gens quant à leur existence. Donc s’ils savent qu’ils peuvent les contourner, ils trouveront un moyen de le faire. » Pendant ce temps, des entreprises technologiques et médiatiques ont créé la Coalition pour la provenance et l’authenticité du contenu (C2PA), qui spécifie des métadonnées pouvant être intégrées aux fichiers d’image décrivant la source de l’image, qu’il s’agisse d’un appareil photo ou d’un programme d’IA. Ces métadonnées incluent des détails sur le moment, le lieu et la méthode de création, permettant aux individus de vérifier la provenance de l’image.

Share the Post: