La bataille pour la vie privée biométrique

En 2024, l’adoption croissante de systèmes de surveillance biométrique, tels que l’utilisation de la reconnaissance faciale alimentée par l’IA dans les lieux publics et l’accès aux services gouvernementaux, encouragera le vol d’identité biométrique et les innovations anti-surveillance. Les individus cherchant à voler des identités biométriques pour commettre des fraudes ou accéder à des données non autorisées seront renforcés par des outils d’IA générative et l’abondance de données faciales et vocales publiées en ligne. Déjà, des clones vocaux sont utilisés pour des escroqueries. Prenez par exemple Jennifer DeStefano, une mère en Arizona qui a entendu la voix paniquée de sa fille pleurant « Maman, ces hommes méchants m’ont pris ! » après avoir reçu un appel d’un numéro inconnu. L’escroc réclamait de l’argent. DeStefano a finalement pu confirmer que sa fille était en sécurité. Cette supercherie est un prélude à des escroqueries biométriques plus sophistiquées qui cibleront nos peurs les plus profondes en utilisant les images et les sons de nos proches pour nous contraindre à obéir à ceux qui déploient ces outils. En 2024, certains gouvernements adopteront probablement l’imitation biométrique pour soutenir la torture psychologique. Par le passé, une personne pouvait se voir annoncer de fausses informations avec peu de preuves à l’appui, en dehors des paroles de l’interrogateur. Aujourd’hui, une personne interrogée peut avoir été arrêtée en raison d’une correspondance erronée de reconnaissance faciale. Des hommes à la peau foncée aux États-Unis, dont Robert Williams, Michael Oliver, Nijeer Parks et Randal Reid, ont été arrêtés à tort en raison d’une mauvaise identification faciale, détenus et emprisonnés pour des crimes qu’ils n’avaient pas commis. Ils font partie d’un groupe de personnes, y compris les personnes âgées, les personnes de couleur et les personnes non conformes au genre, qui courent un plus grand risque de mauvaise identification faciale. Les outils d’IA générative donnent également aux agences de renseignement la possibilité de produire de fausses preuves, comme une vidéo d’un présumé complice avouant un crime. Peut-être tout aussi angoissant est le fait que le pouvoir de créer des sosies numériques ne sera pas limité aux entités disposant de gros budgets. La disponibilité de systèmes d’IA générative à code source ouvert capables de produire des voix et des vidéos similaires à des êtres humains augmentera la circulation de la vengeance pornographique, de la pornographie infantile et plus encore sur le dark web. Cette histoire est tirée de l’édition 2024 de WIRED, notre exposé annuel sur les tendances. Lisez d’autres histoires de la série ici – ou téléchargez une copie du magazine.

Share the Post: