Si vous avez la phobie des robots tueurs, ce rapport de l’ONU risque de vous faire faire des cauchemars. L’an dernier, en Libye, un drone autonome a pris pour cible des soldats qui battaient en retraite. De son propre chef.
L’information a été dévoilée par le média New Scientist, qui indique avoir mis la main sur un récent rapport du Conseil de Sécurité de l’ONU. L’incident s’est déroulé en mars 2020, en Libye, un pays alors en proie à une guerre civile.
L’attaque a été perpétrée par un appareil nommé Kargu-2, un drone de combat fabriqué par l’entreprise turque STM. Configuré en mode ‘autonome’, cet engin ne nécessite pas de connexion de données entre ‘l’opérateur et la munition’. Autrement dit, il peut décider d’attaquer de lui-même, sans avoir reçu d’instruction humaine.
Le Kargu-2 peut être équipé d’une charge explosive et être utilisé pour des attaques kamikazes.
Une première
L’incident a eu lieu dans le cadre d’un conflit entre les forces gouvernementales libyennes et une faction dissidente dirigée par Khalifa Haftar, le commandant de l’armée nationale libyenne. Ce sont des combattants de cette dernière qui ont été pris pour cible, alors qu’ils battaient en retraite.
‘Les convois logistiques et les militaires du général Khalifa Haftar ont été traqués après avoir battu en retraite. Des frappes ont été engagées à distance par les drones de combat et les systèmes d’armes autonomes létaux tels que le STM Kargu-2. […] Les systèmes d’armes autonomes létaux ont été programmés pour attaquer des cibles sans nécessiter de contact entre l’opérateur et l’intelligence artificielle’, écrivent les experts onusiens.
Dans son rapport, l’ONU ne précise pas si cette attaque a fait des morts.
‘C’est probablement la première fois que des drones attaquent des humains sans instructions à cet effet’, souligne Zak Kellenborn, un des auteurs du rapport.
Consultant en sécurité nationale spécialisé dans les systèmes sans pilote et les drones, l’homme est inquiet. ‘Quelle est la fragilité du système de reconnaissance des objets? À quelle fréquence identifie-t-il mal les cibles?’, se demande-t-il.
Les grandes puissances ne veulent pas s’arrêter
Depuis plusieurs années, de nombreux spécialistes demandent aux pays de légiférer en matière de robots tueurs. Cet incident, le premier du genre, ne fait qu’accentuer leurs craintes. Et confirmer qu’elles sont tout à fait légitimes.
Depuis bientôt dix ans, une coalition de 170 ONG militent pour stopper définitivement la prolifération des armes entièrement autonomes. Human Rights Watch est l’un des moteurs de la campagne. ‘Les systèmes d’armes qui sélectionnent et engagent des cibles sans contrôle humain significatif sont inacceptables et doivent être empêchés’, alarme-t-elle.
D’après un rapport publié l’été dernier par Human Rights Watch, 30 pays soutiennent l’interdiction du développement de ces robots tueurs. Parmi eux, une seule nation européenne: l’Autriche. Une seule superpuissance mondiale fait également partie des défenseuses de ce projet: la Chine. Elle nuance toutefois son soutien au programme, s’opposant uniquement à l’utilisation (et donc pas à la recherche et à la production) de ces armes entièrement autonomes.
En 2018, Politico avait révélé qu’un petit groupe de pays – mais pas des moindres – avait empêché le déroulement de discussions au sujet de l’interdiction de ces armes au sein de l’ONU. La Russie, les États-Unis, la Corée du Sud, Israël et l’Australie faisaient partie des principaux opposants.
Sur le même sujet: