Vous vous inquiétez des deepfakes politiques ? Faites attention à la diffusion des « cheapfakes »

Au cours de l’été, un comité d’action politique (PAC) appuyant le gouverneur de Floride et candidat à la présidence Ron DeSantis a téléchargé sur YouTube une vidéo de l’ancien président Donald Trump dans laquelle il semblait attaquer le gouverneur de l’Iowa Kim Reynolds. Ce n’était pas tout à fait vrai – bien que le texte provienne d’un tweet de Trump, la voix utilisée dans la publicité a été générée par IA. La vidéo a ensuite été supprimée, mais elle a suscité des questions sur le rôle que jouera l’IA générative dans les élections de 2024 aux États-Unis et dans le monde entier. Alors que les plateformes et les politiciens se concentrent sur les deepfakes – du contenu généré par IA qui peut représenter une personne réelle disant quelque chose qu’elle n’a pas dit ou une personne entièrement fictive – des experts ont déclaré à WIRED qu’il y avait beaucoup plus en jeu. Bien avant que l’IA générative ne soit largement disponible, les gens fabriquaient des «cheapfakes» ou des «shallowfakes». Cela peut être aussi simple que de mal étiqueter des images, des vidéos ou des clips audio pour faire croire qu’ils proviennent d’une autre époque ou d’un autre lieu, ou de modifier un média pour qu’il paraisse qu’il se soit produit quelque chose qui ne s’est pas produit. Ce contenu peut toujours avoir un impact profond s’ils sont autorisés à circuler sur les plateformes sociales. Alors que plus de 50 pays se préparent à des élections nationales en 2024, les médisances et les désinformations sont toujours des outils puissants pour façonner la perception publique et les récits politiques. Meta et YouTube ont tous les deux réagi ces derniers mois avec de nouvelles politiques concernant l’utilisation de l’IA générative dans des publicités politiques comme celle en faveur de DeSantis. Le mois dernier, Meta a annoncé qu’elle exigerait des annonceurs politiques de divulguer si une annonce utilisait de l’IA générative, rejoignant ainsi Google, qui possède YouTube, pour répondre aux inquiétudes selon lesquelles les nouveaux outils pourraient être utilisés pour tromper les électeurs. Dans une note sur son blog consacré à la façon dont l’entreprise aborde les élections de 2024, Meta indique qu’elle exigera des annonceurs «de divulguer quand ils utilisent l’IA ou d’autres techniques numériques pour créer ou modifier une annonce sur une question politique ou sociale dans certains cas». «L’étendue ne concerne que les publicités politiques, qui représentent une infime partie de l’écosystème politique où les gens utilisent de plus en plus de médias générés par IA», explique Sam Gregory, directeur du programme de l’ONG Witness, qui aide les gens à utiliser les technologies en faveur des droits de l’homme. «Il n’est pas clair que cela couvre la gamme de shallowfakes ou de cheapfake approaches déjà déployés à la fois dans les publicités politiques, mais aussi, bien sûr, dans les nombreuses autres façons dont les gens les utilisent dans un contexte politique.» Et toutes les informations trompeuses sur le contenu politique ne se retrouvent pas dans les publicités. Par exemple, en 2020, une vidéo est devenue virale, faisant croire que la représentante Nancy Pelosi bégayait. La vidéo elle-même n’était pas fausse, mais elle avait été ralentie pour donner l’impression que Pelosi était ivre. Bien que Twitter, TikTok et YouTube aient supprimé la vidéo, elle est restée en ligne sur Facebook, avec un label indiquant qu’elle était «partiellement fausse». La vidéo elle-même n’était pas une publicité, bien qu’elle ciblât clairement une figure politique.

Share the Post: