Des milliers de personnes utilisant le métro londonien étaient surveillées par un logiciel de surveillance utilisant l’IA, conçu pour détecter s’ils commettaient des crimes ou étaient dans des situations dangereuses, révèlent de nouveaux documents obtenus par WIRED. Le logiciel d’apprentissage automatique a été combiné à des images CCTV en direct afin de détecter les comportements agressifs ainsi que les armes à feu ou les couteaux brandis, tout en cherchant également les personnes tombant sur les voies du métro ou évitant de payer leur billet. De octobre 2022 jusqu’à fin septembre 2023, Transport for London (TfL), qui gère le réseau du métro et des bus de la ville, a testé 11 algorithmes pour surveiller les personnes passant par la station de métro de Willesden Green, au nord-ouest de la ville. C’est la première fois que l’organisme de transport combine l’IA et les images vidéo en direct pour générer des alertes envoyées au personnel de première ligne. Plus de 44 000 alertes ont été émises pendant le test, dont 19 000 ont été transmises en temps réel au personnel de la station. Les documents envoyés à WIRED en réponse à une demande au titre de la loi sur la liberté d’information détaillent comment TfL a utilisé une large gamme d’algorithmes de vision par ordinateur pour suivre le comportement des personnes lorsqu’elles se trouvaient à la station. C’est la première fois que tous les détails de l’essai sont rapportés, et cela fait suite à l’annonce de TfL en décembre dernier selon laquelle il étendra l’utilisation de l’IA pour détecter les fraudeurs dans plusieurs autres stations de la capitale britannique. Lors de l’essai à Willesden Green, une station qui recevait 25 000 visiteurs par jour avant la pandémie de COVID-19, le système d’IA a été configuré pour détecter les incidents de sécurité potentiels afin de permettre au personnel d’aider les personnes dans le besoin, mais il visait également les comportements criminels et antisociaux. Trois documents fournis à WIRED détaillent comment les modèles d’IA ont été utilisés pour détecter les fauteuils roulants, les poussettes, la vape, les personnes accédant à des zones non autorisées ou se mettant en danger en s’approchant du bord des quais. Les documents, partiellement censurés, montrent également que l’IA a commis des erreurs pendant l’essai, comme signaler les enfants qui suivaient leurs parents à travers les barrières de billetterie comme des fraudeurs potentiels, ou ne pas pouvoir faire la différence entre un vélo pliant et un vélo non pliant. Des policiers ont également participé à l’essai en tenant une machette et une arme à feu devant les caméras CCTV, lorsque la station était fermée, pour aider le système à mieux détecter les armes.
« Les livres de Penguin Random House disent maintenant explicitement ‘non’ à la formation IA »
‘Écrit par Emma Roth, dont le portfolio couvre aussi bien les percées technologiques grand public, les dynamiques de l’industrie du