samedi 2 juillet 2022

Dissuader demain de l’emploi d’armes nouvelles : l’exemple des SALA

Un récent rapport de l’ONU prétend que la Turquie aurait utilisé, dès 2020, en Libye, un drone agissant sans intervention humaine. Cette information ne semble pas exacte au vu de l’état de l’art des technologies actuelles. Mais ce sera vraisemblable à moyen terme. Alors, pour le GCA (2S) Arnaud Sainte-Claire Deville, une ligne rouge sera franchie. Il convient donc de s’en prémunir, tout en restant ferme sur nos valeurs : l’homme doit toujours être maître de l’emploi des armes utilisées.

Le concept de dissuasion français doit s’interroger sur sa pertinence face aux nouvelles menaces qui se dessinent. Ainsi, alors que la robotique terrestre est aujourd’hui en plein essor, bénéficiant à la fois des progrès de la numérisation, de l’intelligence artificielle et de l’accroissement des puissances de calcul, tout indique que demain nos armées pourraient être confrontées à des Systèmes d’armes létaux autonomes (SALA), communément appelés par facilité et abus de langage « robots tueurs ». Au même titre que d’autres armes comme les armes NRBC, dissuader leur emploi, doit être envisagé dès aujourd’hui.

De quoi parle-t-on ?

Au risque de laisser libre cours à tous les fantasmes, il importe de bien définir l’objet dont on veut dissuader l’usage. À la notion de robot, il est préférable de substituer celle de système automatisé, terme qui en facilite la classification par rapport à l’idée d’autonomie au cœur de la problématique des SALA. Le concept exploratoire interarmées de juillet 2018 portant sur « l’emploi de l’intelligence artificielle et des systèmes automatisés » précise qu’un système automatisé peut être supervisé, semi-autonome ou pleinement autonome[1] :

  • Supervisé : c’est-à-dire que ses tâches de base (navigation, observation, pointage des armes…) sont automatisées ;
  • Semi-autonome : c’est-à-dire qu’il exécute ses tâches sans intervention humaine au-delà de la programmation initiale ;
  • Autonome : c’est-à-dire qu’il n’y a pas de lien de subordination (contrôle et désactivation dans la chaîne de commandement).

Appartenant à la dernière catégorie, un SALA est capable de s’assigner lui-même des objectifs et/ou de modifier sans validation humaine en cours de mission le cadre d’emploi qui lui a été fixé. Cette capacité d’un système à être gouverné par ses propres règles[2], si elle semble loin d’être réalisable aujourd’hui, n’en demeure pas moins atteignable, même si initialement elle demeurera à l’intérieur de domaines de fonctionnement réduits. Des scientifiques ont avancé[3] que le saut technologique, mais aussi éthique, franchi par l’usage futur de SALA peut être comparé à l’invention de la « poudre à canon » et à celle des « armes nucléaires », et parlent d’une grave « perte d’humanité ». Dans les milieux ouverts comme difficiles, à l’exemple de la zone urbaine, les SALA, qui combineront à leur puissance de destruction, vitesse de réaction et précision à un niveau inégalable par l’homme, pourront s’avérer tactiquement décisif. En réduisant également le nombre des combattants amis exposés à la mort ou aux blessures de guerre, ils permettront d’éviter les pertes humaines susceptibles de mettre à mal la résilience d’une nation et donc sa volonté politique.

L’utilisation des SALA est donc susceptible de créer une situation de déséquilibre opérationnel comme éthique, que le conflit soit de nature symétrique ou asymétrique[4]. La perspective, même lointaine de leur emploi, doit initier dès à présent une réflexion sur la manière d’en dissuader l’usage. Ces quelques lignes ont pour objet d’y participer. Elles proposent plusieurs pistes complémentaires, qui au-delà d’un « tout ou rien » juridique ou technologique, conserve au combattant au sol une place essentielle dans ce dispositif de dissuasion.

Un cadre juridique qui restera fragile…

À l’image des traités d’interdiction de certaines armes conventionnelles (comme les sous-munitions et les mines antipersonnel), on peut réfléchir à la formalisation d’un cadre juridique qui interdirait l’usage des SALA. Le droit international humanitaire considère que le droit de choisir « les moyens et méthodes de guerre », c’est-à-dire « les outils de la guerre », n’est pas illimité. L’article 36 du protocole additionnel de la Convention de Genève oblige tout État à soumettre toute nouvelle arme à un examen juridique rigoureux. Ainsi, depuis 2018, les États se réunissent dans le cadre de la convention sur certaines armes classiques (CCW[5]) pour discuter des armes autonomes. Les débats achoppent sur la notion de « contrôle humain significatif », critère qui permettrait de statuer sur la licéité des systèmes automatisés. Un SALA, qui par définition détermine lui-même ses propres règles, se trouverait de facto banni.

Il semble moral de vouloir déboucher sur un traité anti-SALA, dont l’objectif serait d’interdire des armes capables de prendre la décision de choisir et de tuer des cibles sans intervention humaine. Serait-ce suffisant pour en dissuader l’usage ? Rien n’est moins sûr tant le magistère du caractère immoral du développement et de l’acquisition de nouvelles armes a été bafoué à plusieurs reprises au cours de l’histoire, comme à l’exemple de l’arbalète, puis de l’arquebuse. Alors que certains États contestent déjà l’universalité d’une telle interdiction ― on pense par exemple à l’appel de Vladimir Poutine début 2017 pour la création en Russie de complexes industriels destinés à développer la robotique autonome militaire ―, on ne peut aussi exclure un usage par des groupes d’individus en raison de la facilité d’accès à ces technologies[6]. Des ONG, pourtant très actives comme Human Rights Watch, considèrent que de telles démarches juridiques rencontreront des obstacles insurmontables. Une approche purement juridique rendra donc très difficile de dissuader des États, comme des individus, d’utiliser des SALA.

… et qui nécessitera de développer des parades technologiques…

Alors que le Président Emmanuel Macron s’est déjà « catégoriquement opposé » aux armes létales entièrement autonomes et que la ministre des Armées Florence Parly affirme que « la France ne laisse pas émerger les robots tueurs », notre pays conscient des difficultés à parvenir à un traité d’interdiction, propose l’adoption d’une déclaration politique au niveau des Nations-Unies maintenant le principe du contrôle humain sur l’usage de la force. Dans le même temps, le comité d’éthique de la défense recherche les voies et les moyens qui permettront de maintenir notre supériorité opérationnelle, sans nier nos valeurs et en respectant nos engagements internationaux.

Lucidité et crédibilité sont deux vertus essentielles pour dissuader. Ainsi la vitesse d’évolution du monde et le risque d’apparition de dangers inédits comme les SALA à l’horizon de 15/20 ans doivent nous inciter à la prudence et à relativiser l’intangibilité du droit par rapport aux circonstances. Aussi n’est-il pas inutile de réfléchir au développement d’armes anti-SALA. Sans aller jusqu’à développer des SALA « humanisés » doué d’une intelligence artificielle pouvant faire preuve de suffisamment de discernement pour se comporter comme des soldats[7], ne faut-il pas imaginer des systèmes semi-autonomes capables d’identifier des SALA qui, utilisant les mêmes moyens d’acquisition et de destruction que ces derniers, seront en mesure de les détruire. Disposant de facto d’une forte autonomie, ils resteraient sous contrôle humain à travers une programmation bornant leurs capacités à se fixer leurs propres règles. Ainsi des algorithmes de gouvernance pourraient limiter les actions ou cadres d’emploi autorisés en implémentant des règles d’engagement simples (inaction en situation non connue ou non-conforme, action limitée aux véhicules ou systèmes d’armes, tir uniquement en riposte…). De plus l’homme conserverait une capacité de contrôle en s’appuyant sur des moyens de communication et de représentation de l’information lui permettant de comprendre ce qu’il se passe à tout moment.

…tout en réaffirmant que « l’homme restera l’instrument premier du combat » [8]

Dissuader de l’emploi des SALA ne saurait pourtant se limiter à l’usage de systèmes anti-SALA, respectant le principe du contrôle humain. En effet, on pourrait demain assister à un emploi généralisé et massif des robots, y compris des SALA sur le champ de bataille, en raison du ratio très faible entre des pertes amies minimisées, rapportées à une efficacité opérationnelle supposée maximale. Mais ce serait nier la nature même de la guerre que de vouloir également la déshumaniser, en refusant d’opposer des poitrines humaines à des poitrines androïdes. Si les visages de la guerre changent souvent, sa nature intrinsèque demeure, caractérisée par la place centrale de l’homme et l’affrontement des volontés.

Sur le plan opérationnel, s’affranchissant des images de combat apocalyptique entre d’immenses armées totalement robotisées, il faut préférer à la substitution de l’homme par la machine la complémentarité du binôme combattant-robot. Considéré comme un véritable équipier, le robot doit permettre au soldat de se concentrer sur ses points forts, comme la créativité ou encore la capacité de résolution de problème et d’adaptation. Il s’agit bien de maintenir l’homme au cœur de l’action guerrière, en exploitant l’efficacité tactique du robot pour augmenter l’ingéniosité stratégique comme de situation humaine.

Au-delà de la crédibilité opérationnelle d’un tel système de force de nature à s’opposer efficacement à des SALA, c’est bien le maintien de notre capacité à engager des hommes au sol qui renforce la dialectique de la dissuasion considérée comme globale. Face à des SALA par essence livrés à eux-mêmes, le respect du principe de non-déshumanisation de la guerre est inhérent à notre concept de dissuasion. On peut faire un parallèle entre le rôle de la 1re Armée face aux masses soviétiques pendant la guerre froide et celui d’une force terrestre où l’homme serait toujours présent face à des hordes de SALA. Nécessitant de s’appuyer sur une forte résilience de la Nation, ce principe nous place en situation favorable de dissymétrie morale par rapport à l’adversaire. Il illustre également un des fondements du concept français, rappelé par le Président Macron[9] quant à la complémentarité incontournable entre forces conventionnelles et forces nucléaires.

En guise de synthèse

Même s’il reste difficile d’apprécier la pleine valeur ajoutée opérationnelle des SALA dans la conduite de la guerre hybride ou classique, la perspective réaliste de leur mise au point impose de penser à dissuader de leur emploi, dont on peut en revanche déjà bien appréhender les conséquences morales comme techniques. La crédibilité de cette dissuasion ne saurait se limiter à un simple arsenal juridique qu’il convient pourtant de finaliser et de mettre en œuvre, tout en étant parfaitement conscient de ses limites. Les investissements importants consentis par notre pays en matière de robotique et d’intelligence artificielle doivent également se consacrer au développement de moyens anti-SALA en phase avec notre conception de l’éthique guerrière. In fine, refusant la déshumanisation de la guerre, c’est en définissant la complémentarité homme-robot, tout en gardant notre capacité à engager des hommes au sol, que nous pourrons en pleine cohérence avec notre concept de dissuasion, dissuader demain des SALA.

Texte issu du dossier n°27 du G2S « Dissuader aujourd’hui ou comment prouver sa détermination »


NOTES :

  1. On notera qu’un système télé-opéré, système sans équipage à bord et opéré à distance via des moyens
    de télécommunication, n’est pas considéré comme un système automatisé.
  2. Définition même de l’autonomie.
  3. Lettre ouverte signée en 2015 à l’occasion de la conférence internationale de la recherche sur l’intelligence artificielle de Buenos Aires par près de 3 000 personnalités, dont des chercheurs en robotique et en intelligence artificielle comme des figures de l’industrie high-tech.
  4. La baisse drastique des coûts des technologies associées en ouvrira largement l’accès.
  5. Certain Conventional Weapons.
  6. Les recettes qui sont efficaces en termes de lutte contre la prolifération nucléaire ne pourraient s’appliquer.
  7. Le lecteur intéressé pourra utilement consulter l’ouvrage Robots tueurs du LCL Brice Erbland.
  8. Colonel Ardant du Picq dans Études sur le combat.
  9. Discours du Président de la République sur la stratégie de défense et de dissuasion, École de Guerre, 7
    février 2020.
ARTICLES CONNEXES

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.

Les plus lus

COMMENTAIRES RÉCENTS

ARCHIVES TB