Overblog
Editer l'article Suivre ce blog Administration + Créer mon blog

Publié par Michel Bouffioux

Un entretien publié par l'hebdomadaire Paris Match Belgique le 28 avril 2022 et par Paris Match.be, le 30 avril 2022.

Certaines armes dopées par l’intelligence artificielle sont de plus en plus autonomes. De nombreuses organisations de la société civile réclament leur interdiction. « Il n’est pas acceptable qu’une machine décide de tuer des humains », insiste Jonathan Bannenberg, chercheur au GRIP (Groupe de recherche et d’information sur la paix et la sécurité), à Bruxelles.

Dans le jargon militaire, les robots tueurs sont désignés par le terme « SALA ». Que recouvre-t-il ?

Jonathan Bannenberg. L’acronyme « SALA » désigne les Systèmes d’Armes Létaux Autonomes. Ces robots tueurs intègrent une intelligence artificielle suffisamment élaborée pour chercher des cibles, les sélectionner et les attaquer (ce qu’on appelle « l’engagement») sans intervention humaine.

De telles armes existent-elles déjà ou, à ce stade, ne s’agit-il que de prototypes, voire de fantasmes inspirés par la science-fiction ?

Il n’est pas question de fantasmes, mais d’une réalité de plus en plus palpable. En mars 2021, un rapport du groupe d’experts de l’ONU sur la Libye révélait que des munitions rôdeuses avaient été utilisées contre des troupes affiliées à Haftar par les forces du gouvernement d’entente nationale. Il s’agissait de Kargu-2, soit des drones quadricoptères employant des algorithmes d’apprentissage qui peuvent leur conférer une autonomie totale. Néanmoins, le fabricant turc de ces SALA, la société STM, a allégué que, sur le théâtre d’opérations libyen, l’autonomie des Kargu avait été limitée à la navigation et à l’identification des cibles, tandis que l’engagement – le choix ultime d’attaquer – était demeuré sous contrôle humain. Un doute subsiste : on ne sait pas si, à l’occasion de ce conflit, pour la première fois, des robots tueurs ont pris seuls la décision de tuer des humains. Quoi qu’il en soit, ce qu’il faut retenir, c’est que la possibilité de supprimer l’ultime approbation humaine est techniquement possible.

On peut prendre un autre exemple, celui du SGR-A1 sud-coréen ?

Tout à fait. Ce robot-sentinelle mitrailleur fabriqué par Samsung est utilisé dans la zone démilitarisée qui se trouve entre les deux Corée. Actuellement, il est encore exploité par des humains via des liaisons caméra, mais techniquement, cette arme pourrait très bien être commutée en mode autonome.

Des SALA sont-ils utilisés dans le cadre de la guerre en Ukraine ?

Selon certains échos, les Russes auraient eu recours à des munitions rôdeuses KUB. Toutefois, comme en Libye, l’homme serait resté dans la boucle. Il y a une barrière éthique, morale, voire stratégique qui semble encore subsister… Mais pour combien de temps ? D’une manière générale, la tendance est très claire : on se dirige vers une autonomisation toujours plus grande de tous les systèmes d’armes. On pourrait encore citer moult exemples, relativement à des navires, des engins terrestres divers… L’industrie de l’armement travaille au développement de SALA dans de nombreux pays.

Quel est l’argumentaire des militaristes qui défendent cette « évolution » ?

Certains d’entre eux crient à l’exagération : l’autonomie totale, on n’y serait pas encore. Ceux-là soulignent aussi que les militaires eux-mêmes n’y seraient pas forcément favorables. Même si ce dernier point n’est pas tout à fait faux, il s’agit d’un discours qui néglige les risques. D’autres défendent ces « avancées » en plaidant qu’elles autorisent des frappes plus précises, impliquant moins de dégâts collatéraux. Qu’en outre, les SALA permettent de limiter les pertes militaires : on peut faire la guerre avec moins de soldats. Et puis, il y a l’argument classique de la course à l’armement : si on ne suit pas le mouvement, on sera dépassé par les autres. Mais il convient d’avoir un regard critique sur ces narratifs qui semblent présenter des évidences, alors qu’ils sont aussi le prolongement du lobbying des industriels.

La contre-argumentation ?

En premier lieu, il y a la question de la déshumanisation numérique : il n’est pas acceptable qu’une machine décide de tuer des humains. Pour l’intelligence artificielle, les cibles, qu’elles soient des personnes ou des choses, ne sont que des données à traiter, des alignements de 0 et de 1. Elle ne fait pas la différence entre un « qui » et un « quoi ». Comment un robot tueur ferait-il le tri entre un soldat qui combat et un soldat qui se rend ? Voire entre un soldat et un civil ? La machine est conditionnée par sa programmation initiale, qui peut impliquer des biais. Dans un environnement changeant, on peut s’interroger sur sa capacité à prendre des décisions adaptées. Une solution serait le « machine learning » : ces logiciels améliorent leurs performances sur la base des données qu’ils récoltent, ce qui les conduit à effectuer des nouvelles tâches qui n’avaient pas été initialement programmées, mais les mêmes biais risquent de se répliquer. De plus, des roboticiens admettent qu’en la matière, il y a encore une grande part d’inconnu. Cela accroît le questionnement sur la transparence de la chaîne de commandement et sur la possibilité qu’ont les utilisateurs de se cacher derrière la machine pour n’avoir pas à répondre de dérapages éventuels. En cas d’erreur, qui est légalement responsable ? Le concepteur de l’intelligence artificielle, l’organisation qui y a eu recours ? Sans parler des risques de piratage, de la possibilité que de tels systèmes d’armes nécessitant l’engagement de peu de personnel tombent entre les mains d’entités non étatiques ou de groupes terroristes.

Par ailleurs, la possibilité de faire la guerre en limitant les pertes militaires n’abaisse-t-elle pas le seuil d’engagement dans des conflits armés ?

C’est en effet une objection majeure. Le développement des SALA augure d’un monde qui pourrait devenir encore plus conflictuel. On peut faire le lien avec ce qui se passe en Ukraine : que se passerait-il si les Russes utilisaient des essaims de robots tueurs permettant de limiter leurs pertes humaines ?

On a le sentiment d’être à un tournant dans l’histoire de l’armement ?

Un moment charnière, oui. Il y a eu trois révolutions dans le domaine de la guerre : la poudre à canon, le nucléaire et maintenant l’intelligence artificielle, dans laquelle l’industrie de l’armement investit beaucoup. Si la communauté internationale ne réagit pas rapidement, on risque d’être dans une situation de fait accompli, sans qu’aucun cadre normatif ne fixe de ligne rouge. Ce n’est pas que des signaux d’alerte n’auraient pas été activés depuis plusieurs années : de nombreuses voix se sont déjà élevées dans la société civile pour demander l’interdiction de telles armes, ou à tout le moins une réglementation garantissant qu’elles feront toujours l’objet d’un contrôle humain significatif. Ce qui manque, c’est une réelle volonté politique au niveau mondial.

N’en débat-on pas à l’international ?

Si, bien entendu. Le sujet est discuté dans le cadre onusien depuis plus de huit ans. Il s’agit d’échanges diplomatiques qui ont lieu au sein de la Convention sur certaines armes classiques (CCAC). Mais il se fait que celle-ci fonctionne par consensus, et que des États hautement militarisés et investis dans le développement de ces armes, dont les États-Unis et la Russie, bloquent l’avancée des débats en transformant le consensus en droit de veto. Ils prétextent que ce débat est prématuré, alors que de nombreuses organisations de la société civile, l’opinion publique internationale et des scientifiques invitent à agir préventivement. En matière de contrôle des armements, on revit d’une certaine manière le scénario de la bombe nucléaire : il n’avait pas fallu attendre Hiroshima pour que des voix s’élèvent contre les risques que posaient l’arme atomique.

Que peut faire la Belgique pour peser un tant soit peu dans ce débat ?

Notre pays a présidé le groupe d’experts gouvernementaux dans le cadre de la CCAC en 2021 et n’a pas ménagé ses efforts pour tenter de relancer les discussions sur un traité international d’interdiction des robots tueurs. En mars dernier, après un nouvel échec des discussions dans le cadre de l’ONU, la Belgique a signé une déclaration commune avec 22 autres États exprimant une « profonde déception ». Ce texte rappelle que ce ne sont pas des machines, seulement des hommes, qui devraient décider de l’usage de la force létale. Mais, dans le même temps, la guerre en Ukraine a fortement resserré les liens au niveau de l’Otan, dominée par les États-Unis, soit un pays opposé à un traité d’interdiction et ne préconisant que l’élaboration de règles de bonne conduite. On ne peut affirmer avec certitude que ceci explique cela, mais il faut bien constater que la position du gouvernement belge s’est tout récemment profilée comme plus attentiste : une proposition de résolution parlementaire affirmant que notre pays doit chercher à jouer un rôle plus actif sur la scène internationale pour arriver à une interdiction des robots tueurs devait être votée, il y a quelques semaines, en commission de la Défense nationale. Avec surprise, on a appris que ce point ne figurait plus à l’agenda. Il semblerait y avoir une certaine réticence au niveau du gouvernement fédéral.

Pourquoi ?

L’exécutif souhaite désormais une concertation préalable sur la question des robots tueurs au sein de l’Otan. En d’autres termes, la Belgique souffle le chaud et le froid. C’est décevant, alors que notre pays a autrefois joué un rôle de pionnier dans les processus qui ont conduit aux traités d’interdiction des mines antipersonnel et des armes à sous-munitions. Il devrait en faire de même dans ce débat sur les robots tueurs, quitte à rejoindre d’autres États dans un forum alternatif à celui de la CCAC, pour espérer créer la masse critique suffisante qui ferait enfin bouger les lignes.

Pour être informé des derniers articles, inscrivez vous :
Commenter cet article