Vous vous réveillez le jour des élections et déverrouillez votre téléphone pour regarder une vidéo instable de votre capitale d’État. Dans les images agitées, de la fumée s’échappe du capitole de l’État. Dans d’autres clips postés à côté, des coups de feu retentissent au loin. Vous vous dites: Peut-être vaudrait-il mieux sauter le bureau de vote aujourd’hui. Ce n’est que plus tard que vous apprenez que les vidéos étaient des faux créés par une intelligence artificielle. Une amie vous appelle, bouleversée. Une connaissance anonyme l’a placée dans une série de deepfakes pornographiques, et maintenant les vidéos se propagent de site en site. La police lui a dit de contacter un avocat, mais les lettres de cessation et de renoncement ne fonctionnent pas. Vous êtes un acteur célèbre. Une grande société technologique veut que vous soyez la voix de son nouvel assistant intelligent. Vous refusez. Des mois plus tard, le chatbot est lancé et les gens disent qu’il sonne juste comme vous. Vous n’avez jamais consenti à une telle imitation, et maintenant quelqu’un d’autre monétise votre voix. Alors que les faux créés par une IA générative inondent Internet, bientôt tout le monde, pas seulement Scarlett Johansson, pourrait avoir une histoire similaire à raconter. Les législateurs à travers les États-Unis ont récemment adopté près d’une douzaine de lois, et ont introduit des dizaines d’autres, pour réglementer les imitations par l’IA sous toutes leurs formes. Mais cette campagne légale se heurte désormais à des critiques d’une source improbable. Des groupes de défense des droits de l’homme, dirigés par l’Union américaine pour les libertés civiles et ses affiliés au niveau de l’État, élaborent une posture légale visant à restreindre voire à rejeter bon nombre de ces nouvelles règles. Au cœur de l’argument: les Américains ont le droit constitutionnel de créer des deepfakes de leurs concitoyens. « Chaque fois que vous voyez de grandes vagues de projets de loi visant à réglementer une nouvelle technologie à travers les 50 législatures d’État et Dieu sait combien d’ordonnances communautaires, il y en aura un bon nombre qui tracent incorrectement les limites, » a déclaré Brian Hauss, avocat principal du projet ACLU Speech, Privacy, and Technology. « Donc je ne doute pas, » a-t-il continué, « qu’il y aura beaucoup de litiges autour de ces projets de loi lors de leur mise en œuvre. »
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du