« Robots tueurs ». Que seront les soldats de demain ?

Cette recension a été publiée dans le numéro de printemps de Politique étrangère (n°3/2018). Rémy Hémez propose une analyse de l’ouvrage de Brice Erbland, « Robots tueurs ». Que seront les soldats de demain ? (Armand Colin, 2018, 176 pages).

La question de l’emploi des systèmes d’armes létaux autonomes (SALA) fait débat, et beaucoup d’écrits existent déjà sur le sujet. Brice Erbland – officier de l’armée de Terre, auteur d’un témoignage sur ses engagements comme pilote d’hélicoptère d’attaque (Dans les griffes du Tigre, 2013) – constate cependant que les discussions sont, quasi exclusivement, d’ordre juridique et intègrent peu la dimension morale. Or, en partant du présupposé réaliste que les SALA seront développés et utilisés en opération, il est fondamental d’étudier le cadre éthique de l’emploi de ces systèmes. C’est à cette réflexion que s’attache l’auteur dans ce court essai, en s’appuyant sur son expérience opérationnelle.

Brice Erbland s’interroge d’abord sur les conséquences de l’emploi du « robot soldat », terme préféré à celui de « robot tueur », jugé impropre. Il plaide pour une utilisation des SALA en accompagnement des soldats, car il estime que leur emploi seul n’est pas souhaitable. En effet, l’acceptabilité morale du combat se fonde sur la réciprocité du danger : « Le droit de tuer doit s’accompagner du risque de mourir. » L’auteur insiste aussi sur la nécessité de maintenir une présence humaine pour la planification et la conduite des opérations des SALA. Par ailleurs, ces derniers ne pourront se satisfaire d’ordres vagues (« faites au mieux… »). Les consignes qui leur seront transmises devront donc envisager tous les cas non conformes.

La deuxième partie de l’ouvrage est consacrée à l’étude comparative des forces et faiblesses du soldat et du SALA. Huit faiblesses humaines spécifiques au combat sont détaillées. Certaines ne seront pas présentes chez les robots soldats, comme la vengeance ou les effets négatifs de la distanciation. « L’effet Lucifer », qui veut qu’un soldat peut parfois effectuer des actes allant bien au-delà de ses limites morales par soumission à l’autorité, implique qu’un SALA doit avoir une capacité de jugement autonome pour pouvoir « refuser » un ordre illégal ou immoral. Sont ensuite passées en revue cinq vertus humaines au combat. Certaines sont – au moins partiellement – reproductibles pour un SALA. C’est le cas de l’instinct, via un algorithme de remontée rapide des solutions possibles. D’autres ne peuvent être programmées, comme le discernement émotionnel. Or, pour l’auteur, ce dernier « est à la base du comportement vertueux du soldat au combat. Il s’agit en quelque sorte de faire le choix de la clémence au vu d’une situation particulière ».

Brice Erbland étudie ensuite l’éthique artificielle qu’il conviendrait de mettre en place. Il revient dans un premier temps sur le processus décisionnel humain, pour décrire par la suite un module d’éthique artificielle. Cette partie de l’ouvrage, passionnante, est cependant exigeante pour le lecteur du fait de l’emploi fréquent du langage de la programmation. Il faut souligner le grand intérêt de la dernière partie du livre : « Ce que nous apprend la littérature. » Elle s’attache à tirer des conclusions opérationnelles d’œuvres de science-fiction : méthode trop peu utilisée en prospective, et pourtant fructueuse.

L’auteur nous offre ici une réflexion très structurée, pertinente et raisonnée sur un sujet qui fait trop souvent l’objet d’argumentaires péremptoires. Cet ouvrage mérite la lecture de tous ceux qui s’intéressent à la robotique militaire et aux questions de défense en général.

Rémy Hémez

> > S’abonner à Politique étrangère < <

Ce contenu a été publié dans Revue des livres, avec comme mot(s)-clé(s) , , , , . Vous pouvez le mettre en favoris avec ce permalien.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.