« Les filigranes sur l’art IA sont un jeu futile de cache-cache numérique. »

IA en bref Ajouter des filigranes visibles ou invisibles aux images pour identifier si elles sont créées par une IA ne suffit pas à empêcher la manipulation du contenu pour propager de la désinformation en ligne, mettent en garde les experts. Les signatures visibles comme le modèle de texte vers image DALL-E d’OpenAI, qui superpose une rangée de carrés colorés en bas de ses images, sont les plus faciles à contourner. Ces marques peuvent facilement être supprimées en recadrant, en enregistrant ou en copiant l’image de manière à contourner le téléchargement direct. Les filigranes invisibles, tels que le SynthID de Google DeepMind, sont plus difficiles à effacer car ils sont intégrés directement dans les sorties du système Imagen. Cependant, il n’est pas impossible pour des malfaiteurs ayant quelques connaissances techniques de les effacer, a déclaré Siwei Lyu, professeur d’informatique spécialisé dans la criminalistique numérique à l’Université de Buffalo aux États-Unis, à FedScoop. « La technologie de filigrane doit être prise avec des pincettes car il n’est pas si difficile pour quelqu’un ayant une connaissance des filigranes et de l’IA de la briser et de supprimer le filigrane ou d’en fabriquer un », a-t-il déclaré. « Je pense que les filigranes jouent principalement sur l’inconscience des gens quant à leur existence. Donc, s’ils savent qu’ils peuvent le faire, ils trouveront un moyen de le contourner. » Pendant ce temps, les entreprises technologiques et médiatiques ont créé la Coalition pour la provenance et l’authenticité du contenu (C2PA), qui spécifie les métadonnées pouvant être intégrées aux fichiers image et qui décrivent la source de l’image, qu’il s’agisse d’un appareil photo ou d’un programme d’IA. Ces métadonnées incluent des détails sur le moment, le lieu et la méthode de création, permettant aux personnes de vérifier la provenance de l’image.

Share the Post: