‘Dans cette ère où l’intelligence artificielle règne en maître dans le monde numérique, les images créées par l’IA ont commencé à influencer négativement la narration d’événements significatifs tels que l’ouragan Helene. Par exemple, une image créée par l’IA montrant une fille et son chien lors d’une inondation, autrefois considérée comme authentique, souligne le risque d’une mauvaise utilisation de la technologie de l’IA. Cette image n’est pas réelle : elle reflète simplement un problème grandissant – la vitesse d’avancement de l’IA générative qui dépasse actuellement la capacité d’identifier et de taguer de telles images.
Dans la suite de l’ouragan Helene, le cyclone le plus dévastateur aux États-Unis depuis 2017, les effets physiques sont bien documentés à travers des photos. Des photographes ont capturé des images de familles américaines prises au milieu de la catastrophe et des représentations symboliques telles qu’un drapeau américain submergé. Cependant, les images générées par l’IA, y compris le conte fictif de la fille et de son chien, trouvent également leur place sur les plateformes de médias sociaux, souvent présentées comme réelles.
Des recherches récentes menées par Google, Duke University et plusieurs organisations de vérification des faits soulignent le rôle croissant de l’IA dans la création et la diffusion d’images frauduleuses. L’IA offre maintenant un moyen simplifié de créer et de propager de tels récits trompeurs – des représentations déformées de personnalités notables comme le Pape à la fille imaginaire affrontant l’ouragan.
Pour contrer la fraude produite par l’IA, des entreprises comme Facebook ont recours à la signalisation du contenu généré par l’IA créé avec son entité IA, Meta, tout en identifiant le contenu similaire provenant d’autres plates-formes. Cependant, ces étiquettes ne sont pas infaillibles et ne peuvent pas être appliquées à tout le contenu créé par l’IA.
Des progrès sont observés dans les efforts de l’Initiative pour l’authenticité du contenu, un regroupement de leaders de l’industrie dont Adobe fait partie. Ils développent une technologie qui garantit que les informations du créateur original restent intactes, même lorsqu’une image est partagée ou capturée. Cependant, ces solutions sont actuellement en phase de test et nécessitent la coopération du créateur.
La nécessité d’un système efficace pour identifier et taguer le contenu généré par l’IA dans le monde numérique est pressante. Cependant, chaque avancée dans la technologie de l’IA ajoute à la difficulté, surtout que l’IA devient de plus en plus habile à produire du contenu semblable à celui des humains. Cette compétence entrave notre capacité à distinguer le réel du contenu généré par l’IA, déformant la nécessité d’outils efficaces qui peuvent identifier un tel contenu fabriqué.
Il est essentiel de noter que de tels outils existent, bien que leur développement soit plus lent et avec certaines limites – comme le détecteur d’IA de Hive qui peut dire si une image a été artificiellement développée. Cependant, ces solutions sont loin d’être conviviales, en particulier lorsque la plupart des navigations sur les réseaux sociaux se font sur mobile, qui ne peuvent souvent pas supporter ces plugins.
Pour être efficaces, les outils de détection de l’IA doivent être intégrés aux plates-formes régulièrement utilisées par les individus et être acceptés sur les applications largement utilisées. Les choses se compliquent du fait que plusieurs plateformes d’IA manquent d’incitation financière pour prévenir l’usage abusif de l’IA ; leur rentabilité dépend largement de normes éthiques relaxées.
Les plateformes d’IA dotées de restrictions ne sont pas non plus complètement sûres, comme l’a démontré une étude du Centre for Countering Digital Hate. Les chercheurs ont réussi à contourner les mesures de sécurité pour générer des images fabriquées liées aux élections.
Adobe, membre de l’Initiative pour l’authenticité du contenu, essaie d’appliquer des mesures de sécurité sophistiquées qui impliquent un filigrane invisible avancé, en taguant le créateur de l’image et le logiciel utilisé. Cependant, la mise en place de telles mesures à une plus grande échelle est encore en attente, et leur absence à grande échelle permet à l’abus de l’IA de persister.
Malgré le rythme plus lent de développement de ces précautions par rapport au déploiement de l’IA, leur potentiel est indéniable. Néanmoins, ces mesures de sécurité doivent connaître un développement et une adaptation importants pour qu’elles aient un impact significatif sur l’ère de l’IA. Des artistes et des entreprises technologiques à la conception conviviale et accessible, le besoin du moment est de veiller à ce que les images générées soient correctement étiquetées et facilement identifiables dans le prometteur futur de l’IA.’