L’intelligence artificielle générée par des « deepfakes » qui imitent des politiciens et des célébrités est bien plus répandue que les efforts visant à utiliser l’IA pour assister les cyberattaques, selon la première recherche de la division DeepMind de Google sur les utilisations malveillantes les plus courantes de cette technologie de pointe. L’étude a révélé que la création d’images, de vidéos et d’audio réalistes mais faux de personnes était presque deux fois plus courante que la prochaine utilisation abusive la plus élevée des outils d’IA générative: la falsification d’informations en utilisant des outils basés sur du texte, tels que des chatbots, pour générer de la désinformation à poster en ligne. L’objectif le plus courant des acteurs abusant de l’IA générative était de façonner ou d’influencer l’opinion publique, selon l’analyse menée avec l’unité de recherche et développement du groupe de recherche Jigsaw. Cela représentait 27 % des utilisations, alimentant les craintes concernant l’impact des deepfakes sur les élections mondiales cette année. Des deepfakes du Premier ministre britannique Rishi Sunak, ainsi que d’autres dirigeants mondiaux, sont apparus sur TikTok, X et Instagram ces derniers mois. Les électeurs britanniques se rendront aux urnes la semaine prochaine pour des élections générales. Les inquiétudes sont largement répandues selon lesquelles, malgré les efforts des plateformes de médias sociaux pour étiqueter ou supprimer de tels contenus, le public pourrait ne pas reconnaître leur caractère faux, et la diffusion de ces contenus pourrait influencer les électeurs.
Donnez vie à vos histoires avec Epidemic Sound
Dans le monde numérique d’aujourd’hui, le contenu visuel est roi. Mais qu’est-ce qui transforme une bonne vidéo en une expérience