Serbian Land Rover Defender towing trailer with "Miloš" tracked combat robot on Sloboda 2019 military parade and exercise at "Colonel-pilot Milenko Pavlović" military airport. (Photo: Wikipedia)

Jean-MarcRickli, Directeur des risques globaux et de la résilience au Centre de Politique de Sécurité (GCSP) sis dans la Cité de Calvin posait une question essentielle : Ces armes sont-elles pourvues d’une capacité d’apprentissage ou va-t-on les entraîner à identifier des cibles ? Et avec quelles conséquences pour les populations civiles ?

« Il y a un flou par rapport aux armes autonomes qui reposent sur des technologies déjà présentes dans le secteur privé lorsqu’il s’agit de reconnaissance faciale par exemple. Les États leaders dans ce domaine, Israël ou la Turquie, ont développé une capacité de niche pour les drones, moins chers, et des technologies utilisées dans le secteur civil, en les fusionnant avec des armes qui ont des caractéristiques nouvelles », selon lui.

Quentin Ladetto, Directeur de Foresight à Armasuisse, qui n’est pas un militaire, estimait qu’il faut différencier le fantasme de la réalité. « Dans le domaine civil comme dans le domaine militaire, il y a la volonté d’automatiser toujours plus de choses. Vous avez des données, un traitement et une action. Cela pose une série de problématiques. Il n’y a pas de solutions apportées, sauf à abolir ce genre de choses ».

Dans un environnement géopolitique polarisé et une ONU paralysée, des réponses globales de tous les acteurs sont nécessaires. Mais Jean-Marc Rickli était pessimiste. Il constatait que l’on détricote les acquis car ces technologies fournissent un avantage certain sur un terrain de guerre.

Le CICR, par la voix de Cordula Droege, la Directrice de sa Division juridique, soulignait qu’il est urgent de se demander où sont les limites. « Il faut regarder de près les risques du développement de ces armes autonomes ». Pas de doute pur l’éminente juriste : « Les États et les parties à un conflit ont la responsabilité de respecter le droit de la guerre. Le droit international humanitaire s’applique à toutes les armes y compris les armes autonomes qui doivent aussi s’y conformer ».

Quentin Ladetto ajoutait que la recherche n’est pas non plus à négliger. « L’intelligence artificielle est vue comme un outil qui ne prend pas des décisions aléatoires. On parle des systèmes autonomes à un stade avancé. Tout s’autonomise sans que l’on ne s’en rende compte ».

L’avenir d’un potentiel contrôle des robots tueurs se joue-t-il à l’Office des Nations Unies à Genève, où les négociations sur une éventuelle interdiction des systèmes d’armes autonomes stagnent pourtant depuis 2017 ?

Pour rappel, on peut lire sur le site Swissinfo que selon un rapport externe de l’ONU, le gouvernement libyen s’était servi, durant la guerre civile en mars 2020, d’un quadricoptère Kargu-2. Ce drone a « chassé » une cible humaine sans en avoir reçu l’ordre. Pour la première fois, une arme mortelle autonome – un robot tueur – était utilisée. « Ces systèmes d’armes, développés grâce à la robotique et à l’intelligence artificielle (IA), se passent de toute intervention humaine ». 

La Suisse soutient le principe de négociations. Si elle s’oppose à une interdiction totale, elle est favorable à une réglementation, un contrôle et une limitation. « Mais les choses n’avancent pas : la Russie rejette presque toute proposition de régulation. Elle a même boycotté le dernier cycle de négociations en mars en raison de la guerre en Ukraine. Israël, les États-Unis, la Turquie, la Grande-Bretagne et la Corée du Sud ne veulent pas non plus d’une réglementation contraignante des systèmes d’armes autonomes, car ils estiment que le droit international humanitaire est suffisant pour une utilisation responsable », note Swissinfo.

Une des raisons du manque d’ardeur des décideurs pour réglementer l’utilisation des robots tueurs serait-elle essentiellement économique, particulièrement de la part de pays pionniers en matière d’intelligence artificielle ?

Dans son livre Robots tueurs – La guerre déshumanisée, les robots et drones autonomes visent zéro mort, publié en octobre 2018 aux Editions Favre, Éric Martel, chercheur associé au Laboratoire interdisciplinaire de recherches en sciences de l’action au Conservatoire national des arts et métiers (CNAM), sis à Paris, interrogeait : La guerre robotisée, matrice d’un nouveau monde ?

Éric Martel visait une cible précise : « La guerre définit également notre vision du monde. Un champ de bataille, entièrement automatisé où les robots se font la guerre, implique de fait une société également automatisée où la majorité des professions aura été remplacée par des machines. Après que le privilège ultime de l’être humain, la guerre, ait été délégué à des robots autonomes, il semblerait évident que la majorité des professions seraient de fait remplaçables. La question des robots tueurs, comme tout ce qui a trait à la guerre nous implique donc ».

Pourtant, avertissait le chercheur dans son ouvrage, depuis la guerre du Vietnam, les combats sont devenus une activité comme une autre qui n’intéresse le public qu’à travers le prisme réducteur de l’économie forcenée de pertes humaines dans son propre camp. Il serait peut-être temps de se souvenir de cette maxime de Trotski : « Si vous ne vous intéressez pas à la guerre, elle s’intéressera à vous », concluait-il.

Luisa Ballin est une journaliste Italo-suisse qui collabore régulièrement avec le magazine Global Geneva.

Italo-Swiss journalist Luisa Ballin is a contributing editor of Global Geneva magazine.

Related articles on the Global Insights Platform www.global-geneva.com

Relat articles on the Global Insights Magazine webplatform www.global-geneva.com

https://global-geneva.com/how-threatened-is-the-mediterranean-and-what-can-we-do-about-it%ef%bf%bc/embed/#?secret=67jj7a4UZO#?secret=l4cjo2yI0U