Vous vous réveillez le jour des élections et déverrouillez votre téléphone pour regarder une vidéo tremblante de votre capitole d’État. Sur les images chaotiques, de la fumée s’échappe du bâtiment de l’État. Dans d’autres extraits postés à côté, des coups de feu résonnent au loin. Vous pensez alors : peut-être vaut-il mieux éviter le bureau de vote aujourd’hui. Ce n’est que plus tard que vous découvrez que les vidéos étaient des faux générés par une intelligence artificielle. Une amie vous appelle, bouleversée. Une connaissance anonyme l’a placée dans une série de deepfakes pornographiques, et maintenant les vidéos se propagent de site en site. La police lui a conseillé de contacter un avocat, mais les lettres de cessation et de désistement ne fonctionnent pas. Vous êtes un acteur célèbre. Une grande entreprise technologique souhaite que vous soyez la voix de son tout nouvel assistant IA. Vous refusez. Des mois plus tard, le chatbot est lancé et les gens disent qu’il sonne exactement comme vous. Vous n’avez jamais consenti à une telle imitation, et maintenant quelqu’un d’autre monétise votre voix. Alors que les faux générés par l’intelligence artificielle inondent Internet, bientôt tout le monde, pas seulement Scarlett Johansson, pourrait avoir une histoire semblable à raconter. Les législateurs à travers les États-Unis ont récemment adopté près d’une douzaine de lois, et en ont introduit des dizaines d’autres, pour réglementer les imitations par l’IA sous toutes leurs formes. Mais cette campagne légale se heurte désormais à des objections venant d’une source improbable. Des groupes de défense des droits de l’homme, dirigés par l’ACLU nationale et ses filiales au niveau des États, adoptent une posture légale visant à restreindre voire à écarter bon nombre de ces nouvelles règles. Au cœur de l’argument : les Américains ont le droit constitutionnel de créer des deepfakes de leurs concitoyens. « Chaque fois que vous voyez des vagues massives de projets de loi visant à réglementer une nouvelle technologie à travers 50 législatures d’État différentes et Dieu sait combien d’arrêtés communautaires, il y en aura un bon nombre qui tracent incorrectement les lignes », a déclaré Brian Hauss, avocat principal du projet ACLU Parole, Confidentialité et Technologie. « Donc, je ne doute pas, » a-t-il continué, « qu’il y aura beaucoup de litiges sur ces projets de loi au fur et à mesure de leur mise en œuvre ».
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du