« Aux Jeux olympiques, l’IA vous regarde. »

À la veille de la cérémonie d’ouverture des Jeux olympiques, Paris est une ville submergée par la sécurité. Quarante mille barrières divisent la capitale française. Des groupes d’agents de police portant des gilets pare-balles patrouillent les jolies rues pavées. La Seine est interdite à tout individu n’ayant pas déjà été contrôlé et muni d’un code QR personnel. Des soldats vêtus de kaki, présents depuis les attaques terroristes de 2015, se tiennent près d’une boulangerie en bord de canal, arborant des bérets et tenant de gros fusils contre leur poitrine. Le ministre de l’Intérieur français, Gérald Darmanin, a passé la semaine dernière à justifier ces mesures comme de la vigilance, et non un excès. La France est confrontée au « plus grand défi sécuritaire qu’aucun pays n’ait jamais eu à organiser en temps de paix », a-t-il dit aux journalistes mardi. Dans une interview accordée au journal hebdomadaire Le Journal du Dimanche, il a expliqué que des « individus potentiellement dangereux » ont été surpris à postuler pour travailler ou être volontaires aux Jeux olympiques, dont 257 islamistes radicaux, 181 membres de l’extrême gauche et 95 de l’extrême droite. Hier, il a déclaré à la chaîne de télévision française BFM qu’un citoyen russe avait été arrêté soupçonné de comploter des actes de « déstabilisation » à « grande échelle » durant les Jeux. Les Parisiens se plaignent encore des fermetures de routes et des pistes cyclables qui se terminent brusquement sans avertissement, tandis que des groupes de défense des droits de l’homme dénoncent « des risques inacceptables pour les droits fondamentaux ». Pour les Jeux, cela n’a rien de nouveau. Les complaints concernant la sécurité dystopique sont presque une tradition olympique. Les éditions précédentes ont été caractérisées par Londres en confinement, le Tokyo forteresse et la « course aux armements » à Rio. Cette fois, ce sont les mesures de sécurité les moins visibles qui ont suscité le plus de controverses. Les mesures de sécurité à Paris ont été renforcées par un nouveau type d’IA, alors que la ville permet à des algorithmes controversés de scanner les images de vidéosurveillance des stations de transports à la recherche de menaces. Le système a été testé pour la première fois à Paris en mars lors de deux concerts de Depeche Mode. Pour les critiques et les partisans, la surveillance algorithmique des images de vidéosurveillance offre un aperçu des futurs systèmes de sécurité, où il y a tout simplement trop de vidéosurveillance pour que les opérateurs humains puissent tout regarder. « Le logiciel est une extension de la police », déclare Noémie Levain, membre du groupe activiste La Quadrature du Net, qui s’oppose à la surveillance par l’IA. « C’est les yeux de la police multipliés. » Près de l’entrée de la station de métro Porte de Pantin, des caméras de surveillance sont fixées au plafond, enfermées dans une boîte métallique grise facilement négligeable. Une petite pancarte est accrochée au-dessus de la poubelle, informant toute personne prête à s’arrêter et lire qu’elle participe à une « expérience d’analyse de vidéosurveillance ». La société exploitant le métro de Paris, la RATP, « est susceptible » d’utiliser « l’analyse automatisée en temps réel » des images des caméras de vidéosurveillance « dans lesquelles vous pouvez apparaître », explique la pancarte aux passagers distraits qui se dépêchent de passer. L’expérience, précise-t-elle, est en cours jusqu’en mars 2025.

Share the Post: