La bataille pour la vie privée biométrique

En 2024, l’adoption croissante de systèmes de surveillance biométrique, tels que l’utilisation de la reconnaissance faciale alimentée par l’IA dans les lieux publics et l’accès aux services gouvernementaux, stimulera le vol d’identité biométrique et les innovations anti-surveillance. Les individus cherchant à voler des identités biométriques pour commettre des fraudes ou accéder à des données non autorisées seront soutenus par des outils d’IA génératifs et l’abondance de données faciales et vocales publiées en ligne. Déjà, des clones vocaux sont utilisés pour des escroqueries. Prenons par exemple Jennifer DeStefano, une mère en Arizona qui a entendu la voix paniquée de sa fille pleurer « Maman, ces mauvais hommes m’ont ! » après avoir reçu un appel d’un numéro inconnu. L’escroc exigeait de l’argent. DeStefano a finalement pu confirmer que sa fille était en sécurité. Cette supercherie est un prélude à des arnaques biométriques plus sophistiquées qui cibleront nos peurs les plus profondes en utilisant les images et les sons de nos proches pour nous contraindre à accomplir la volonté de ceux qui déploient ces outils. En 2024, certains gouvernements adopteront probablement la mimique biométrique pour soutenir la torture psychologique. Par le passé, une personne intéressée pouvait se voir communiquer de fausses informations avec peu de preuves à l’appui des allégations, mis à part les mots de l’interrogateur. Aujourd’hui, une personne interrogée peut avoir été arrêtée en raison d’une correspondance erronée de reconnaissance faciale. Des hommes à la peau foncée aux États-Unis, dont Robert Williams, Michael Oliver, Nijeer Parks et Randal Reid, ont été injustement arrêtés en raison d’erreurs d’identification faciale, détenus et emprisonnés pour des crimes qu’ils n’ont pas commis. Ils font partie d’un groupe de personnes, dont les personnes âgées, les personnes de couleur et les personnes non conformes au genre, qui courent un risque plus élevé d’identification faciale erronée. Les outils d’IA génératifs donnent également aux agences de renseignement la capacité de produire de fausses preuves, comme une vidéo d’un co-conspirateur présumé avouant un crime. Peut-être tout aussi effrayant est que le pouvoir de créer des sosies numériques ne sera pas limité aux entités disposant de gros budgets. La disponibilité de systèmes d’IA générative à code source ouvert capables de produire des voix ressemblant à des humains et de fausses vidéos augmentera la diffusion de revenge porn, de matériel d’abus sexuel infantile, et plus encore sur le dark web. Cette histoire est issue de WIRED World en 2024, notre rapport annuel sur les tendances. Lisez plus d’histoires de la série ici – ou téléchargez une copie du magazine.

Share the Post: