You are currently viewing Problématiques de la robotique avec le lieutenant-colonel Brice Erbland

Problématiques de la robotique avec le lieutenant-colonel Brice Erbland

Combien y aurait-il d’adeptes de corrida en Espagne si demain tous les toréadors étaient remplacés par des robots ? C’est bien parce qu’un homme met sa vie en danger pour tuer en duel un taureau dans une arène que de telles joutes existent encore, le courage des deux protagonistes face à la mort constituant le principal critère d’appréciation par le public de cette scène macabre.

Jusqu’à présent, le droit légitime de donner la mort n’était accordé qu’à des hommes contre d’autres hommes, à des policiers en situation d’autodéfense contre des malfrats ou à des militaires combattant au nom de leur pays face à un ennemi désigné, et l’ouverture du feu est toujours codifiée, réglementée et ordonnée par une autorité supérieure qui assume la responsabilité morale et juridique d’ôter la vie. Mais l’introduction de l’IA sur le champ de bataille, et notamment la potentielle création d’armées de robots soldats, interroge les mondes militaire et civil et nourrit, non sans inquiétude, l’imaginaire du lieutenant-colonel Brice Erbland, auteur de Dans les griffes du Tigre (2013 – Les Belles Lettres) et Robots tueurs  (2018 – Armand Colin), que le M a rencontré pour vous.

Par Victoire Pouret, rédactrice pour le M

Avant-propos : Le lieutenant-colonel Brice Erbland préfère, pour désigner les SALA (Systèmes d’Armes Létales Autonomes), parler de « Robots soldats » plutôt que d’employer l’expression « Robots tueurs », trompeuse car outrancière, même monstrueuse, et qui biaise le débat. Cette expression ne constitue le titre d’un de ses livres, publié en 2018, que parce qu’un auteur est bien souvent soumis aux considérations commerciales de son éditeur.

Lieutenant-colonel Brice Erbland

Où en sommes-nous, Français, du développement de ces robots soldats ? 

La ministre des Armées Florence Parly s’était emparée du sujet en 2019, en annonçant publiquement que jamais la France ne créerait de machine capable de tuer de façon autonome (« la France refuse de confier la décision de vie ou de mort à une machine qui agirait de façon pleinement autonome et échapperait à tout contrôle humain »). Aussi nous maintiendrons, quoi qu’il en soit, l’homme dans la boucle, pour faire référence à la classification par Human Rights Watch des trois grands domaines de systèmes robotiques (human-in-the-loop, human-on-the-loop, human-out-of-the-loop). Pour l’instant, la grande majorité des projets d’industrie vise à concevoir des robots d’accompagnement logistique (des mules, qui portent des charges lourdes, du matériel ou des blessés) ou d’aide à la reconnaissance (chien, drone, caméra téléguidée qui précède les soldats pour leur fournir un visuel du terrain et de ses pièges), tout simplement parce que ce sont des systèmes facile à produire. Nexter, principal fabricant en France de véhicules de combat terrestre, a bien élaboré un prototype de robot armé sur chenille, l’OPTIO, mais il reste télé opéré et non autonome. Ceci dit, la France est partie prenante d’un système d’équilibre des forces militaires, vis-à-vis de ses alliés comme de ses adversaires, qui veut que sitôt qu’une grande puissance militaire se dote d’une nouvelle capacité les autres s’alignent.

Variante armée de la gamme OPTIO. Crédits : Nexter.

Dès lors, quels sont nos alliés et adversaires susceptibles de se doter de robots soldats dans les prochaines décennies ? 

Nos concurrents en matière de développement de robots soldats sont bien évidemment la Russie, avec l’entreprise Kalachnikov, la Chine, les États-Unis et Israël, et probablement quelques pays asiatiques comme l’Inde et le Pakistan. Il faut cependant briser le mythe du robot autonome sur la frontière coréenne : celui-ci est automatique, il détecte du mouvement et tire donc sur un lapin comme sur un homme, sans discernement ou choix, sans réflexion aucune. Il faut dire que compte tenu du nombre de paramètres extérieurs au robot soldat à prendre en compte, leur développement est d’une complexité sans nom. Aussi faudra-t-il que l’une des puissances décide d’investir sérieusement pour que les robots soldats voient le jour, et à mon avis il s’agira d’une grande puissance navale : c’est un milieu plus linéaire et homogène que le milieu terrestre, où le déplacement devient difficile.

Bien qu’ils soient des bijoux technologiques, les SALA sont surtout soumis à bon nombre de critiques, les vôtres, notamment. Pourquoi ?

D’abord, l’emploi de machines seules éviterait à son utilisateur des pertes humaines, rendant ainsi moins difficile pour le chef d’État de faire accepter un conflit et de multiplier les combats. La boucle entre le politique et le champ de bataille serait beaucoup plus courte, ce qui constitue un grand danger de dérive puisqu’aujourd’hui, l’Armée et la politique fonctionnent en contrôle mutuel. Si un chef militaire va trop loin, le politique le destitue et le remplace ; si un politique veut se lancer dans une opération non conforme au droit de la guerre ou moralement inacceptable, le chef militaire refusera en engageant avec lui un dialogue démocratique. Nous avons pu observer la dérive d’une boucle courte entre le politique et un système militaire technologique de longue portée en Libye, en 2011 : Barack Obama n’avait alors pas fait appel au vote du Congrès pour poursuivre l’opération au-delà des quatre mois (comme en France, l’exécutif américain est tenu, au bout de quatre mois, d’obtenir le vote du Congrès ou de l’Assemblée pour poursuivre toute opération militaire), sous prétexte qu’il n’y avait pas de soldats au sol, seuls des drones aériens bombardaient. L’opération a duré onze mois. Cette petite dérive démocratique, et l’emprise des machines militaires par l’exécutif, m’interpelle et me pousse à m’opposer à l’utilisation des technologies militaires de façon isolée, sans combattants humains à côté.

Brice Erbland (2018), « Robots tueurs». Armand Colin.

Ensuite, l’avènement des SALA risque d’accentuer le déséquilibre technologique entre deux armées, ce qui constitue d’ailleurs une problématique à double tranchant. Prenons l’exemple de l’Afghanistan : nos armées équipées de la façon la plus moderne ont fait face à des combattants à pied, pour la plupart en armes légères. Le moindre crash d’hélicoptère faisait l’objet d’une récupération médiatique par nos ennemis, trop heureux de pouvoir se vanter de battre avec peu de moyens l’une des armées les mieux équipées au monde. Par là même, il n’y aurait rien de plus destructeur que la vidéo d’un combattant djihadiste sur la carcasse d’un robot soldat.

De plus, sans être un grand spécialiste en droit, on comprend bien vite que les SALA posent également une problématique juridique : qui est responsable du meurtre d’un civil par un robot soldat ? En fait, je pense que la première industrie à réussir à commercialiser des robots soldats sera la première à se porter garante de leur comportement. Prenons l’exemple du grille-pain : lorsque celui-ci met feu à ma cuisine, je me tourne vers son fabricant pour porter plainte, personne ne me demandera combien de temps ma tartine est restée à l’intérieur. Pour le robot soldat, c’est la même chose, et cela freine les industriels aujourd’hui. Et puis, aux premières affaires impliquant des robots soldats, il y aura nécessairement jurisprudence, ce qui est dangereux et annonce un inquiétant imbroglio juridique.

Enfin, et nous retombons ici sur des considérations plus personnelles, les robots soldats posent un problème éthique majeur. Je considère qu’il faut maintenir un certain équilibre dans la mise en situation de danger : pour assumer le droit de tuer, il faut assumer le risque de mourir. Une machine isolée de ce type ne remplit pas ce contrat d’équilibre. Cela ne devient acceptable que dans le cas d’une machine prévue en accompagnement de soldats. Si l’on parvient à faire des SALA, il faut que ces machines soient au moins aussi bonnes moralement qu’un soldat humain, dont la plus grande qualité reste le discernement émotionnel, qui lui permet de faire preuve de clémence, de décider dans l’incertitude, presque de façon primaire. Nous ne sommes pas encore capables de programmer une telle éthique artificielle.

Les systèmes avec « l’homme dans la boucle » de décision sont donc idoines, ou du moins constituent-ils un bon compromis ? 

Il faudrait un système hybride, capable de passer d’une phase autonome à une phase de contrôle. Il existe d’ailleurs un nouvel acronyme qui comprend ce principe d’hybridité : SALIA (Systèmes d’Armes Létales Intégrant l’Autonomie). Peut-être est-ce la meilleure solution possible, l’alliance de la froide efficacité de la machine et du discernement humain.

Votre livre, « Robots Tueurs », peut-il être considéré comme un manifeste humaniste ? 

Le terme me paraît un peu grandiloquent mais il convient puisque j’ai voulu, dans ce livre que j’ai davantage écrit pour nourrir un débat interne aux Armées que pour le grand public, poser des limites à l’introduction de l’IA dans la guerre et ainsi empêcher de faire l’erreur de renier ce que nous sommes, de perdre notre âme au combat avant même le résultat final, d’avoir un usage abusif de la force. Nous empêcher de devenir pires que nos ennemis, en quelque sorte.

Dans ce livre, toujours, vous dites tirer des leçons de la littérature, plus particulièrement de ses dystopies : accordez-vous vraiment aux auteurs un pouvoir d’anticipation, de prédiction, alors même que leur travail est qualifié de science-fiction ? 

Je pense sincèrement qu’il y a quelque chose à retirer de ces travaux de science-fiction. Je m’accorde dès lors avec le Ministère des Armées qui a missionné une dizaine d’auteurs de science-fiction français dont le livre vient de sortir (Ces guerres qui nous attendent, 2030-2060 – Éditions Équateurs), et qui présente plusieurs scénarios de guerre possibles pour nous permettre d’imaginer ce que sera l’Armée et le monde dans trente ans, à l’ère de la surabondance des réseaux sociaux ou encore de la piraterie cyberpunk. Ça peut paraître loufoque, mais beaucoup de romans de science-fiction des années 40 et 50 l’étaient aussi et pourtant leurs hypothèses se sont avérées. Je pense qu’il faut toujours accepter le plus improbable pour se préparer au pire, en étudiant toutes les possibilités. Ces travaux permettent en tout cas d’activer notre imaginaire pour mieux réfléchir à la suite.