La technologie, souvent considérée comme notre alliée, semble avoir tourné le dos à l’innocence. Les erreurs de reconnaissance faciale ont conduit à une série d’arrestations injustifiées, mettant en lumière les lacunes flagrantes de cette technologie.
Porcha Woodruff, une femme enceinte de 32 ans, est devenue la dernière victime de cette défaillance technologique. Arrêtée à tort pour vol et carjacking, elle a été détenue pendant 11 heures, interrogée et son iPhone a été saisi comme preuve. Et tout cela pourquoi ? Parce qu’une machine a dit qu’elle était coupable.
La vidéo de surveillance qui a conduit à son arrestation ne montrait même pas une femme enceinte, alors que Woodruff était visiblement enceinte. L’erreur est d’autant plus flagrante. Mais le pire est que ce n’est pas un cas isolé. Selon le New York Times, c’est le sixième cas récent où une personne a été faussement accusée à la suite de l’utilisation de la technologie de reconnaissance faciale par la police. Trois de ces cas se sont produits à Detroit. Et devinez quoi ? Tous les six étaient noirs.
La ville de Detroit est actuellement confrontée à trois poursuites liées à des arrestations injustifiées basées sur l’utilisation de cette technologie. Des groupes de défense, dont l’American Civil Liberties Union du Michigan, appellent à une collecte de preuves plus rigoureuse dans les affaires impliquant des recherches faciales automatisées. Ils demandent également la fin des pratiques ayant conduit à de fausses arrestations.
Des études ont montré que la technologie actuelle de reconnaissance faciale est plus susceptible de générer de faux positifs avec des visages noirs. Une publication de 2020 sur le site de l’Université Harvard détaille la discrimination raciale omniprésente au sein de la technologie de reconnaissance faciale. Elle souligne des recherches montrant d’importants problèmes d’identification précise des individus noirs.
Un rapport de 2022 de la Georgetown Law sur l’utilisation de la reconnaissance faciale dans l’application de la loi a révélé que la fiabilité de cette technologie, telle qu’elle est généralement utilisée dans les enquêtes criminelles, n’a pas encore été établie. Les erreurs peuvent provenir de plusieurs sources, notamment des algorithmes non éprouvés, des biais dans les ensembles de données de formation, des angles de photo différents et des images de faible qualité utilisées pour identifier les suspects.
Certains pourraient dire que la technologie est imparfaite, mais la vraie question est: pouvons-nous vraiment nous permettre ces erreurs ? Des villes comme San Francisco, Oakland et Boston ont interdit son utilisation. Cependant, certains envisagent de revenir sur ces interdictions, peut-être séduits par les sirènes des développeurs.
Pour Woodruff, cette expérience l’a laissée hospitalisée pour déshydratation et profondément traumatisée. Son avocat, Ivan L. Land, a souligné la nécessité pour la police de mener une enquête plus approfondie après une reconnaissance faciale, plutôt que de se fier uniquement à la technologie.