L’éthique confrontée au chaos technologique (CMF – Dossier 31)

L’introduction de l’intelligence artificielle va par nature modifier nos équipements et ainsi notre façon d’envisager la guerre. À la lumière de l’histoire, le Général de division (2S) Jean-Yves Lauzier nous invite à réfléchir à ses conséquences possibles sur les principes moraux encadrant l’action du guerrier.

Aucune éthique au monde ne peut nous dire non plus à quel moment et dans quelle mesure une fin moralement bonne justifie les moyens et les conséquences moralement dangereuses.

Max WEBER

1864-1920

En avril 1139, à la suite du deuxième concile de Latran, lorsque le pape Innocent II promulgue le canon 29 interdisant l’usage des arcs, des frondes et des arbalètes, au-delà de la dimension spirituelle liée au christianisme, il ne fait que s‘inscrire dans la tradition guerrière communément admise jusque-là. En effet, d’une manière presque universelle, même si celle-ci est mieux théorisée et régulée en Occident, la tradition guerrière entend respecter ce qu’on pourrait appeler le pacte moral du guerrier. Celui-ci légitime l’utilisation de la violence du combattant par la notion de réciprocité fondée sur le principe du risque partagé d’être blessé ou de mourir.

Sous l’influence des religions, et pas seulement occidentales, les guerriers ont intégré la nécessité de respecter des règles d’équité, tant dans les duels que lors des batailles. Le Bushido japonais par exemple, sous l’influence du Bouddhisme, codifia la longueur des sabres utilisés par les samouraïs. Malgré leurs terribles pertes face aux Britanniques, les guerriers zoulous n’ont jamais remplacé leurs armes traditionnelles, sagaies et casse-tête, par des armes plus modernes, restant fidèles à la culture religieuse héritée de leurs ancêtres.

De fait, au fond de la psyché du combattant, et de ceux qui le soutiennent, domine le principe de respecter une égalité réelle dans les armes utilisées par les adversaires. Au-delà, le guerrier en arrive à considérer indigne de sa fonction, et comme potentiellement déshonorant et moralement condamnable, l’utilisation d’armes qui lui donneraient un avantage technique disproportionné sur l’adversaire. Dans son poème épique, « Roland furieux », l’Arioste, écrit en 1516, à propos de l’arquebuse « Comment as-tu pu trouver place dans un cœur humain, cruelle et brutale invention ? Avec toi plus de gloire militaire, avec toi le métier des armes perd son honneur, car tu rends inutile la force et la valeur. Le lâche devient avec toi bien souvent vainqueur de l’homme le plus courageux. La bravoure, l’intrépidité n’ont plus le moyen de se faire distinguer dans les combats ». D’ailleurs le chevalier Bayard considérait l’arquebuse comme une arme déloyale et ordonna la pendaison de tout arquebusier capturé.

Pour autant, ce pacte moral du guerrier n’a cessé d’être mis à mal à mesure que les armes utilisées se modernisaient, la technique supplantant progressivement l’éthique. Ainsi, malgré l’interdiction religieuse des arbalètes et des arcs, les armées médiévales se sont équipées d’armes de jet de plus en plus sophistiquées. Progressivement, l’efficacité militaire a pris le pas sur la geste guerrière, combinant un regret de plus en plus nostalgique d’un code d’honneur disparu et la volonté de conserver, voire d’augmenter, la supériorité technologique de ses combattants.

Il convient de souligner que cette nostalgie est sans doute moins vive dans les cultures marchandes au contraire des sociétés aux traditions plus guerrières. La littérature française, de la Chanson de Roland à Cyrano de Bergerac en passant par l’épopée de Bayard, chante à l’envi la noblesse du guerrier submergé par la masse ou la modernité traîtresse. Plus près de nous, l’épopée des Cadets de Saumur ou celle des combattants de Diên Biên Phu met en exergue le courage de combattants défaits par un ennemi plus nombreux ou mieux équipé. La culture américaine, plus utilitariste et soucieuse d’efficacité, ne considère pas comme méritant le sacrifice du héros lié à un manque de moyens techniques. C’est plutôt le signe d’un manque d’anticipation et donc une faute à l’encontre de ses propres soldats. Le principe considère alors que l’ingénierie militaire est tout autant respectable que l’engagement opérationnel du soldat. In fine, dans les sociétés modernes, seule la victoire est belle, et les moyens pour l’obtenir sont jugés licites, sinon moraux, dès lors que le succès est au rendez-vous. La décision prise par le général Curtis LeMay, de formation ingénieure, de détruire Tokyo avec des bombes incendiaires, relève de cette logique utilitariste, reconnaissant lui-même que si les États-Unis avaient perdu la guerre, il aurait été poursuivi comme criminel de guerre.

Toutefois, malgré la modernisation des armements, le pacte éthique du guerrier avait conservé jusqu’à nos jours une certaine réalité. Les archers et arbalétriers engageaient leurs adversaires de plus ou moins loin, en fonction de la portée de leurs armes, mais ils restaient vulnérables aux archers ennemis ainsi qu’aux charges des chevaliers. Les artilleurs engageaient l’ennemi d’encore plus loin mais restaient eux aussi soumis aux tirs de contre batterie ou aux charges de cavalerie. Plus près de nous encore, les premiers aviateurs militaires s’affrontaient comme les anciens chevaliers lors de joutes aériennes qui impressionnaient les combattants terrestres. Ils prenaient ainsi des risques similaires à leur adversaire. Néanmoins, à mesure que les avions ont évolué, notamment la partie avionique, les pilotes ont pu engager de plus en plus loin leurs cibles terrestres, aériennes ou maritimes. Pour autant, le simple fait de devoir décoller, se rapprocher plus ou moins du théâtre des opérations, d’engager le combat et enfin de revenir atterrir ou apponter, constitue un risque en lui-même.

 Cette réalité du risque partagé, même s’il n’a pas été explicitement écrit, a sous-tendu la rédaction des conventions de La Haye d’octobre 1907, fixant les lois et coutumes de la guerre. Son article 22 stipule ainsi que « les belligérants n’ont pas un droit illimité quant au choix des moyens de nuire à l’ennemi » et son article vingt-trois interdit « l’emploi des armes, des projectiles ou des matières propres à causer des maux superflus ». Les rédacteurs de l’époque, empreints de culture chrétienne, et dont les armées étaient dotées de capacités technologiques miliaires équivalentes, n’imaginaient probablement pas la rupture qui interviendrait une centaine d’années plus tard.

Car les innovations techniques dans le domaine des armements constituent désormais une rupture avec des conduites guerrières, qui malgré de nombreuses évolutions respectaient plus ou moins les us et coutumes en vigueur depuis des siècles. L’irruption des drones aériens, terrestres ou maritimes sur le champ de bataille transforme radicalement la perception morale du soldat. L’utilisation des robots pour combattre des humains va nécessairement obliger à réviser les règles relatives aux « us et coutumes de la guerre ».

Alors que le chevalier qui affrontait son adversaire le regardait au plus près, à travers la fente ou la visière de son heaume, le pilote de drone peut engager et détruire l’ennemi à plusieurs milliers de kilomètres. Il peut le matin conduire ses enfants à l’école de sa ville et, quelques instants après, tuer des dizaines de personnes par un missile lancé depuis un drone. Sa vision du combat n’est alors plus qu’un réel et cruel jeu vidéo, n’interférant pratiquement pas sur sa vie de tous les jours. Au-delà même du fait qu’il ne partage aucun risque physique avec son adversaire potentiellement situé à l’autre bout du monde, sa vie quotidienne reste strictement la même, à la réserve près peut-être d’une éventuelle perception morale plus ou moins négative de son action pour certains opérateurs davantage scrupuleux.

L’irruption de l’Intelligence Artificielle dans le combat est déjà une réalité qui va se développer dans les années à venir, jusqu’à peut-être supplanter un jour la décision humaine. Or, l’autonomie d’action (de la prise de décision jusqu’à l’exécution de l’acte de guerre) des robots constitue sans aucun doute un défi moral majeur pour l’homme. Peut-on décemment accorder à une machine le droit de décider par elle-même de tuer un être humain ? Selon quelles modalités ? Avec quel degré de discrimination quant aux moyens utilisés (le niveau d’efficacité létale), avec le choix d’accorder ou non la vie sauve (principes de discrimination entre les adversaires militaires et civils), etc. L’UNESCO a bien compris que ces questions sont de portée universelle en lançant le 20 février 2024 l’observatoire mondial de l’éthique et de la gouvernance de l’intelligence artificielle. Toutefois, en lisant l’objectif affiché sur le site dédié à cet observatoire, on peut légitimement s’inquiéter de la réduction de la défense des principes éthiques de l’IA à la seule priorité du bien-être de la société[1]. Or, plusieurs pays, et parmi eux notamment les États-Unis, la Russie, la Chine et la Corée, se sont lancés dans la réalisation de programmes de développement de drones de combat autonomes. Dans une dizaine d’années, et peut-être même avant, la technologie permettra aux drones de tout type (terrestres, aériens et maritimes) de conduire en autonomie partielle ou quasi-totale pratiquement tous les types de missions aujourd’hui dévolues aux hommes. Faudra-t-il alors susciter dans ces robots, comme certains le préconisent, des capacités à agir selon des règles éthiques ? Certains chercheurs estiment que les robots autonomes pourraient avoir un comportement plus éthique que les hommes et rendre ainsi la guerre moins cruelle. À l’inverse, d’autres comme Jaan Tallinn, Stephen Hawking, Noam Chomsky ou Elon Musk préconisent d’interdire dans une charte universelle l’armement de l’Intelligence artificielle. Cette position s’apparente à celle du pape Innocent II bannissant l’usage de l’arc et de l’arbalète avec le succès que l’on sait.

La France, à travers le comité d’éthique de la défense, poursuit les recherches sur les systèmes d’armes autonomes tout en fixant des principes, comme le respect du droit international et la présence d’un réel contrôle humain. Dans cette logique, la France fait une différence entre les systèmes d’armes létaux autonomes (SALA), qui peuvent décider de tuer quelqu’un sans intervention humaine, et les systèmes d’armes létaux disposant d’une autonomie partielle (SALIA), et qui dépendent avant tout engagement d’une décision humaine. Toutefois, la différence est ténue et par certains côtés relève d’une pruderie quelque peu hypocrite. Car l’avantage de l’intelligence artificielle est la rapidité quasi instantanée de la réponse opérationnelle. Or, toute intervention humaine pour la prise de décision ralentit nécessairement le processus, d’abord avec un risque réel d’échec et ensuite avec la remise en question partielle de l’utilité de l’IA. Ce qui revient à dire que l’homme disposant de moins en moins de temps pour contrôler la machine, la tendance inéluctable sera d’autonomiser complètement l’action du robot.

Alors que faire ? Car, à l’évidence, comme pour l’arbalète, il est sans doute illusoire de vouloir s’opposer au développement des robots autonome sur le champ de bataille. Certes, l’humanité a plus ou moins su réguler ou interdire l’usage de certaines armes jugées criminelles : par exemple l’interdiction des gaz chimiques, des bombes incendiaires ou des mines antipersonnel ou encore l’armement nucléaire. Il est à noter tout de même que ces interdictions ou régulations n’ont pas empêché ici ou là l’utilisation de certaines d’entre elles. Mais les enjeux de l’IA, y compris sur le champ de bataille, ne sont pas qu’opérationnels. Ils sont économiques et financiers, sources de profits et de prestige scientifique, pourvoyeurs d’emplois industriels, avec de nombreux progrès évidents, comme dans la santé, le renseignement, les déplacements etc. Car les enjeux dépassent largement le seul cadre de la défense, comme le montre le fait que dans le domaine de l’IA, la Chine a déposé 30 000 brevets et les États-Unis 17 000 durant l’année 2022. D’ailleurs, le général Milley, ancien chef d’état-major interarmées américain, estime que, d’ici 2050, 30 à 40 % de l’armée américaine seront robotisés et contrôlés par l’IA.

Si l’on ne peut pas s’opposer au développement de ces armes autonomes, il faudrait alors que leur fabrication et leur utilisation obéissent au moins à des règles éthiques universellement partagées. Et pour ce faire, il faut que les décideurs politiques, économiques, industriels et militaires retrouvent les fondements d’une approche morale de leurs décisions. Or, la déconnexion entre morale et souci de la transcendance ne milite pas pour relever ce défi. Le relativisme moral, qui imprègne l’ensemble des sociétés, notamment occidentales, peut faire craindre une rupture d’un pacte international visant à ne pas se servir d’armes autonomes. Le défi, comme certains l’imaginent, serait-il alors d’inclure dans les algorithmes des barrières éthiques afin que les machines réussissent là ou l’homme aurait moralement échoué ? On serait ainsi pleinement entré dans le meilleur des mondes tel qu’il a été décrit par Aldous Huxley. Sans obtenir pour autant une garantie absolue d’un respect des normes éthiques et avec le risque éventuel d’un asservissement partiel d’une part de l’humanité.

Pour éviter de sombrer dans un chaos technologique il faudrait, dans la formation des hommes, et notamment chez ceux appelés à l’exercice de responsabilités élevées, réunir à nouveau la morale de conviction et la morale de responsabilité, en permettant de relier le pragmatisme de la réalité à la doctrine de certitude. Cela suppose une transformation profonde de la société et la volonté de comprendre l’enjeu de la transmission des principes moraux hérités du passé aux générations futures. Seul l’avenir dira s’il est déjà trop tard, comme le pense le scientifique Patrick Albert, spécialiste de l’IA, « L’humanité marche dans le brouillard, comme un somnambule, avec au bout probablement un précipice. Il s’agit d’une question politique qui doit être soumise à la démocratie ».


NOTES :

  1. « Exploiter pleinement le potentiel de l’IA tout en défendant des principes et des valeurs éthiques qui donnent la priorité au bien-être de la société dans son ensemble » Site UNESCO – Page Ethique de l’Intelligence Artificielle.
CERCLE MARÉCHAL FOCH
CERCLE MARÉCHAL FOCH
Le Cercle Maréchal Foch est une association d’officiers généraux en 2e section de l'armée de Terre, fidèles à notre volonté de contribuer de manière aussi objective et équilibrée que possible à la réflexion nationale sur les enjeux de sécurité et de défense. Nous proposons de mettre en commun notre expérience et notre expertise des problématiques de Défense, incluant leurs aspects stratégiques et économiques, afin de vous faire partager notre vision des perspectives d’évolution souhaitables. Le CMF est partenaire du site THEATRUM BELLI depuis 2017. (Nous contacter : Cercle Maréchal Foch – 1, place Joffre – BP 23 – 75700 Paris SP 07).
ARTICLES CONNEXES

1 COMMENTAIRE

  1. Article intéressant.
    Je relativiserais cependant cette notion un peu romancée de la « symétrie du risque » dans les combats médiévaux et anciens au sens général du terme.
    Le paysan écossais vêtu d’un gilet en peau de mouton et équipé d’une hache, envoyé sur le champ de bataille après trois jours d’entraînement sommaire, voyant arriver vers lui à toute vitesse un chevalier anglais cuirassé comme un homard, monté sur un cheval de guerre, entraîné au combat depuis l’âge de 10 ans, a sans doute ressenti comme un sentiment d’injustice. Pendant un très bref instant, cela dit.

    A mon avis, la guerre n’a jamais été « loyale », même si on peut toujours faire des chansons dessus après coup. Je suis de même très sceptique sur la notion de règles universellement partagées. On va bien qu’elles ne sont partagées que jusqu’à ce qu’une personne ou un groupe assez puissant et/ou inconséquent vienne tout mettre en cause.

    Concernant l’IA, je suppute que le coût écologique et en termes de matériaux spécifiques va quand même finir par poser problème. Mais difficile de faire des prédictions sur cette question, en tout cas en ce qui me concerne.

Répondre à GuiS Annuler la réponse

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici


Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur la façon dont les données de vos commentaires sont traitées.

Découvrez nos nouveaux produits dérivés dans la boutique TB.

 

M&O 287 de juin 2025

Dernières notes

COMMENTAIRES RÉCENTS

ARCHIVES TB