Les filigranes sur l’art IA sont un jeu futile de cache-cache numérique.

L’IA en bref Ajouter des filigranes visibles ou invisibles aux images pour identifier si elles sont créées par une IA ne permettra pas d’empêcher la manipulation du contenu en vue de propager de la désinformation en ligne, avertissent les experts. Les signatures visibles comme le modèle de texte à image DALL-E d’OpenAI, qui superpose une rangée de carrés colorés en bas de ses images, sont les plus faciles à contourner. Ces marques peuvent facilement être supprimées en recadrant, en enregistrant ou en copiant l’image de manière à contourner le téléchargement direct. Les filigranes invisibles, tels que le SynthID de Google DeepMind, sont plus difficiles à effacer car ils sont intégrés directement dans les sorties de son système Imagen. Cependant, il n’est pas impossible pour des individus malveillants ayant des connaissances techniques de l’effacer, a déclaré Siwei Lyu, professeur en informatique spécialisé dans les sciences numériques forensiques à l’Université de Buffalo aux États-Unis, à FedScoop. « La technologie des filigranes doit être prise avec des pincettes car il n’est pas si difficile pour quelqu’un ayant des connaissances en filigranes et en IA de la briser et de supprimer le filigrane ou d’en fabriquer un », a-t-il déclaré. « Je pense que les filigranes jouent principalement sur l’ignorance de leur existence par les gens. Donc, s’ils savent qu’ils le peuvent, ils trouveront un moyen de le contourner. » Pendant ce temps, des entreprises technologiques et médiatiques ont créé la Coalition for Content Provenance and Authenticity (C2PA), qui spécifie des métadonnées pouvant être intégrées dans les fichiers d’image et qui décrivent la source de l’image, qu’il s’agisse d’un appareil photo ou d’un programme d’IA. Ces métadonnées comprennent des détails sur le moment, l’emplacement et le mode de création, permettant ainsi aux personnes de vérifier la provenance de l’image.

Share the Post: