La bataille pour la vie privée biométrique

En 2024, l’adoption croissante de systèmes de surveillance biométrique, tels que l’utilisation de la reconnaissance faciale alimentée par l’IA dans les lieux publics et l’accès aux services gouvernementaux, encouragera le vol d’identité biométrique et les innovations anti-surveillance. Les individus cherchant à voler des identités biométriques pour commettre des fraudes ou accéder à des données non autorisées seront renforcés par les outils d’IA générative et l’abondance de données faciales et vocales publiées en ligne. Déjà, des clones vocaux sont utilisés pour des escroqueries. Prenons par exemple Jennifer DeStefano, une mère en Arizona qui a entendu la voix paniquée de sa fille pleurant « Maman, ces méchants hommes m’ont pris ! » après avoir reçu un appel d’un numéro inconnu. L’escroc a exigé de l’argent. DeStefano a finalement pu confirmer que sa fille était en sécurité. Cette supercherie est un prélude à des escroqueries biométriques plus sophistiquées qui cibleront nos peurs les plus profondes en utilisant les images et les sons de nos êtres chers pour nous contraindre à faire les enchères de ceux qui déploient ces outils. En 2024, certains gouvernements adopteront probablement l’imitation biométrique pour soutenir la torture psychologique. Dans le passé, une personne d’intérêt pouvait se voir communiquer de fausses informations avec peu de preuves pour étayer les allégations autre que les paroles de l’interrogateur. Aujourd’hui, une personne interrogée peut avoir été arrêtée en raison d’une correspondance erronée de reconnaissance faciale. Des hommes à la peau foncée aux États-Unis, y compris Robert Williams, Michael Oliver, Nijeer Parks et Randal Reid, ont été injustement arrêtés à cause d’une mauvaise identification faciale, détenus et emprisonnés pour des crimes qu’ils n’ont pas commis. Ils font partie d’un groupe de personnes, dont les personnes âgées, les personnes de couleur et les personnes non conformes au genre, qui sont plus exposées aux erreurs d’identification faciale. Les outils d’IA générative permettent également aux services de renseignement de créer de fausses preuves, comme une vidéo d’un coconspirateur présumé avouant un crime. Peut-être tout aussi alarmant est que le pouvoir de créer des sosies numériques ne sera pas limité aux entités disposant de gros budgets. La disponibilité de systèmes d’IA générative à source ouverte capables de produire des voix humaines et de fausses vidéos va accroître la circulation de contenus tels que la vengeance pornographique, la pornographie infantile, et plus encore sur le dark web. Cette histoire est tirée de « The WIRED World in 2024 », notre rapport annuel sur les tendances. Lisez d’autres histoires de la série ici – ou téléchargez une copie du magazine.

Share the Post: