Le Métro de Londres Traque Ses Voyageurs

Écouter l'article

Le métro londonien, symbole de modernité, est désormais sous la surveillance constante d’un logiciel d’intelligence artificielle. Selon des documents obtenus par le magazine Wired, Transport for London (TfL) a testé entre octobre 2022 et septembre 2023 onze algorithmes pour analyser en temps réel les images des caméras de surveillance de la station Willesden Green. Le but : détecter des comportements suspects ou dangereux.

Plus de 44 000 alertes ont été générées pendant cette période d’essai, dont 19 000 transmises instantanément au personnel de la station. Les documents, partiellement censurés, révèlent que le logiciel étudiait les mouvements, attitudes et langage corporel des usagers pour repérer d’éventuelles armes ou situations violentes. Il visait aussi à identifier les fraudeurs, les personnes en fauteuil roulant nécessitant assistance, ou celles s’approchant trop près du bord du quai.

Bien que les visages aient été initialement floutés et les données conservées 14 jours maximum, TfL a par la suite décidé de lever le floutage des fraudeurs présumés et de prolonger la rétention des données les concernant. Pour améliorer la détection, des tests en situation réelle ont même été réalisés, avec la complicité d’agents de police portant un poignard et un pistolet.

Si TfL met en avant les bénéfices en termes de sécurité et de lutte anti-fraude, plusieurs voix s’élèvent pour critiquer ce dispositif. Les experts en protection de la vie privée s’interrogent sur la fiabilité des algorithmes pour interpréter correctement des situations complexes. Ils dénoncent également l’absence de transparence et de consultation du public.

Certains craignent que ce genre de technologies intrusives, une fois en place, ne soit facilement détourné à l’avenir pour une surveillance de masse beaucoup plus massive, avec reconnaissance faciale à la clé. D’autant que TfL envisage déjà d’étendre l’usage de l’IA pour traquer les fraudeurs dans d’autres stations.

Où s’arrêtera cette tentative de modeler nos comportements dans l’espace public au nom de la sûreté ? Jusqu’où les citoyens accepteront-ils ce glissement progressif vers une société où la machine analyse et juge le moindre de nos faits et gestes ? Le déploiement de ces dispositifs technologiques pose de redoutables questions éthiques et sociétales, qui méritent un vrai débat public.

London Underground Is Testing Real-Time AI Surveillance Tools to Spot Crime | WIRED

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.