L’approbation par le Parlement européen d’une interdiction des systèmes de police prédictive a été saluée comme une avancée majeure pour les droits fondamentaux. Cependant, l’Acte sur l’IA soulève également d’importantes questions quant à son efficacité réelle pour prévenir les utilisations abusives et discriminatoires de l’IA.
En particulier, l’exception faite pour la sécurité nationale, excluant les systèmes militaires et de défense du champ d’application de l’Acte, est problématique. Cette exemption risque de permettre le déploiement de technologies de reconnaissance biométrique controversées par les forces de police sans supervision ni transparence. Les débats intenses autour de cette exception montrent que les États membres de l’UE sont divisés sur la question.
De plus, bien que l’Acte impose des obligations de documentation, de conformité au droit d’auteur et de transparence pour les “modèles de fondation” en IA, son texte final n’est pas encore publié. On ne sait donc pas précisément quelle sera la portée de ces obligations et si elles seront réellement contraignantes et efficaces.
Les évaluations d’impact sur les droits fondamentaux prévues par l’Acte pourraient également s’avérer purement cosmétiques si elles ne s’accompagnent pas de mécanismes de contrôle et de sanctions dissuasifs. Rien n’indique non plus si les exigences de traçabilité et de supervision humaine seront suffisantes pour permettre des recours effectifs en cas de décisions dommageables.
En bref, malgré l’importance symbolique de l’interdiction des systèmes prédictifs policiers, l’Acte sur l’IA semble laisser de nombreuses zones d’ombre. Les exceptions accordées au nom de la sécurité nationale risquent d’ouvrir la porte à des dérives. Et en l’absence de publication du texte final, l’effectivité concrète des obligations imposées aux développeurs d’IA reste incertaine.