Drones Tueurs : L’IA, Juge, Juré et Bourreau

Le Pentagone poursuit activement le développement de drones de combat contrôlés par intelligence artificielle, dotés de capacités décisionnelles autonomes. Ces drones seront en mesure de sélectionner et d’engager des cibles, y compris des humains, sans intervention humaine directe. Bien que le Département de la Défense affirme suivre des politiques volontaires encadrant l’utilisation de telles technologies, leur déploiement imminent soulève des questions cruciales.

Les récentes avancées en apprentissage automatique ont permis la conception de logiciels capables d’analyser des quantités massives de données et d’effectuer des tâches complexes, parfois mieux que les humains. Appliquées au combat, ces innovations promettent aux commandants militaires une supériorité informationnelle et décisionnelle sans précédent.

Car confier à une machine, si sophistiquée soit-elle, le pouvoir discret de vie et de mort est un seuil que l’humanité n’a jamais franchi. Pourtant, les contrôles entourant le développement de telles armes demeurent limités, se bornant à des politiques internes facilement révisables. Rien n’exclut la possibilité qu’un dysfonctionnement logiciel, une manipulation externe ou encore un piratage conduisent un essaim de drones à commettre un massacre. Et même sans incident, la perspective de létalité algorithmique pose un dilemme moral de taille.

Certes, ces drones autonomes sauveront des vies. Leur rapidité décisionnelle sera un atout majeur pour les soldats déployés au front. Mais quel prix accordons-nous désormais à la vie humaine, lorsqu’on en confie l’extinction potentielle à des circuits intégrés ? Ne risquons-nous pas ici notre humanité même ?

On avance aussi que déléguer certaines décisions à l’IA pourrait paradoxalement limiter les bavures et les crimes de guerre, l’algorithme ne connaissant ni passion vengeresse, ni racisme. Soit. Mais cela revient à externaliser notre responsabilité éthique sur la machine, ce qui est profondément troublant.

Bien entendu, des motivations plus pragmatiques animent aussi ce développement rapide. Certains y voient une course aux armements technologique, où toute considération éthique passe au second plan. Qu’il s’agisse de maintenir une supériorité militaire, de soutenir un complexe militaro-industriel ou encore de marquer des points géopolitiques, le développement accéléré de drones autonomes létaux poursuit aussi des objectifs moins avouables.

Le déploiement annoncé de telles armes soulève des questions angoissantes. Jusqu’où pousser la déshumanisation de la guerre au nom du progrès technologique ? Quelles limites s’imposer dans ce rapport inédit entre l’humain et la machine ? Et qui décidera en dernier ressort ? Au rythme où progressent ces recherches, l’heure n’est plus à la réflexion académique mais à l’action politique.

https://www.businessinsider.com/us-closer-ai-drones-autonomously-decide-kill-humans-artifical-intelligence-2023-11?r=US&IR=T

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.