Alerte aux drones tueurs : ce débat international sur le contrôle des armes augmentées d’intelligence artificielle<!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
International
Un drone tueur turc Bayraktar TB2, symbole de l'armement turc.
Un drone tueur turc Bayraktar TB2, symbole de l'armement turc.
©Birol BEBEK / AFP

Préparer la guerre de demain

Les progrès des nouvelles technologies dans le domaine de l’IA pourraient révolutionner la guerre de demain avec des drones tueurs totalement autonomes.

Thierry Berthier

Thierry Berthier

Thierry Berthier est Maître de Conférences en mathématiques à l'Université de Limoges et enseigne dans un département informatique. Il est chercheur au sein de la Chaire de cybersécurité & cyberdéfense Saint-Cyr – Thales -Sogeti et est membre de l'Institut Fredrik Bull.

Voir la bio »

Atlantico : Les progrès des nouvelles technologies dans le domaine de l’IA pourraient révolutionner la guerre de demain avec des drones tueurs totalement autonomes. Les Etats-Unis, la Chine et d’autres pays progressent rapidement dans le développement de nouvelles technologies susceptibles de changer la nature de la guerre en confiant les décisions de vie ou de mort à des drones autonomes équipés d’intelligence artificielle. Quels sont les principaux projets de drones ou d’armes intelligentes qui pourraient être équipés de l’IA ?

Thierry Berthier : Tout d’abord, il convient de bien s’entendre sur les mots et les définitions. Le terme de « drone tueur » ne veut rien dire, pas plus que celui de « camion tueur », « marteau tueur », « fourchette tueuse », ou « tronçonneuse tueuse ». Tous ces outils et systèmes peuvent être utilisés pour tuer un individu. Par ailleurs, la formulation des « drones tueurs » est fortement connotée idéologiquement : elle provient d’ONG internationales, antimilitaristes, souhaitant obtenir des interdictions unilatérales auprès des démocraties européennes. Ces ONG et collectifs d’intellectuels antimilitaristes, « chercheurs », enseignants, activistes professionnels de l’ultra gauche qui exploitent des (CAD) causes à défendre, pivotent d’une cause à l’autre et en tirent des revenus. Ainsi, la lutte contre les « drones tueurs » est devenue une activité lucrative pour les ONG combattantes, le plus souvent sans disposer de la moindre connaissance ou expertise de la chose militaire. La bonne question à se poser est celle du spectre de financement des ONG qui cherchent à limiter l’intelligence artificielle embarquée et la robotique militaire spécifiquement en Europe. Qui financent directement ou indirectement ces opposants hyperactifs ? et avec quels objectifs affichés ou dissimulés ? 

Une fois ce préambule posé, nous pouvons parler de robotique militaire, de vecteur armés, porteurs de charges, d’escadrilles, d’essaims de drones, de niveaux d’autonomie et de leurs rôles dans la robotisation du champ de bataille et la montée de l’intensité des combats [1], [2]. Les progrès fulgurants de l’apprentissage automatique, de la mécatronique, des capteurs, des caméras multispectrales, des matériaux, des systèmes de géolocalisation se superposent et produisent une convergence technologique de type « Matière – Information » qui bénéficie à tout le spectre de la robotique. Les douze révolutions sectorielles de la robotique transforment l’ensemble des activités humaines : robotique agricole, robotique de la mobilité, robotique aérospatiale, robotique de la logistique, robotique médicale et chirurgicale, robotique de sécurité, robotique de dépollution, robotique de la construction et du bâtiment, robotique de production industrielle, robotique minière, robotique d’aide à la personne, robotique militaire. Les drones dont on parle font partie de la dernière catégorie, mais ils peuvent aussi intervenir dans le domaine de la sécurité civile ou de la logistique. Les progrès réalisés dans la robotique agricole peuvent immédiatement diffuser vers d’autres secteurs et en particulier vers la robotique militaire.

Les drones militaires utilisés quotidiennement sur le théâtre ukrainien sont dotés de très peu d’IA ou de niveau d’autonomie. Ils sont massivement téléopérés par des humains et l’ordre de tir est lui aussi réalisé par un opérateur humain. La détection de cibles et l’affectation de la cible à un système de défense peut être le résultat d’une IA intégrée au sein d’un centre de commandement et de contrôle mais la décision finale d’engager le tir reste humaine. 

Cette crainte envers l’IA vis-à-vis des armes intelligentes et des drones de combats est-elle légitime ? Pourrions-nous connaître les scénarios dignes de la science-fiction avec des armes intelligentes totalement autonomes et sans contrôle humain ?

Après l’invention de la poudre à canon au VIIe siècle en Chine, après le développement de l’arme nucléaire en 1945 (projet Manhattan), la robotique militaire doit être considérée comme la troisième révolution dans l’art de la Guerre. Les robots investissent le champ de bataille dans tous les milieux : terrestre, marins, sous-marins et aérien. Ils contribuent à l’élévation du niveau d’intensité du combat. Ils permettent de retirer le soldat humain de la zone de première confrontation et d’économiser le sang du combattant.

La question de l’autonomie de ces systèmes robotisés armés doit elle aussi être précisée et quantifiée. En 2019, nous avons défini la première classification en six niveaux d’autonomie des systèmes robotisés armés, de L0 à L5 [2]. Cette échelle permet de catégoriser un système armé par son niveau d’autonomie. Il faut comprendre que les niveaux les plus hauts ne sont pas ceux qui sont attendus par les Forces Armées, quelles qu’elles soient. Le chef militaire souhaite pouvoir conserver le commandement sur le système robotisé qu’il engage sur le champ de bataille et rester dans la boucle de décision et d’exécution de la mission robotisée. Certains contextes nécessitent plus d’autonomie que d’autres. Si l’on se réfère au conflit ukrainien, les systèmes d’armes, drones kamikazes aériens, terrestres ou navals sont tous de niveau L0, c’est-à-dire pleinement téléopérés par un télépilote humain qui dirige le drone ou la Munition Téléopérée (MT0) sur sa cible. Ce constat est valable pour les deux camps, russe et ukrainien. Le niveau L0 suffit très largement aujourd’hui pour créer de l’attrition forte sur l’ennemi.

Le cas spécifique des essaims de drones (aériens, marins de surface ou sous-marin, terrestres) nous oblige à considérer un niveau d’autonomie supérieur, supervisé par le chef militaire, mais dans lequel les agents robotisés formant l’essaim peuvent se réorganiser de manière autonome. Les premières unités en essaims commencent à arriver et avec elles , une forme d’escalade pour construire une défense efficace, elle aussi basée sur des drones anti-drones en essaim.

Les premiers systèmes de LAD SCS (Lutte Anti Drones Swarm Counter Swarm Essaim anti Essaims) ont eu lieu aux Etats-Unis, en Inde et vont commencer en France à partir d’un consortium d’industriels français leaders dans leurs segments respectifs, ayant accepté de relever ce défi technologique très complexe. En simplifiant, il s’agit de construire un essaim de drones aériens intercepteurs capables de décoller de manière automatique dès qu’une attaque par essaim est détectée puis de poursuivre, rattraper et percuter les drones hostiles pour les neutraliser. Tout cela semble simple sur le papier, mais une telle capacité implique la superposition de technologies de pointe, à la fois en robotique, en intelligence artificielle et en suivi radar. La pépite américaine ANDURIL [3] spécialisée en IA militaire a levée 1,48 Milliards de dollars de dollars entre autres, pour développer de la LAD SCS [4].

Un autre cas particulier est celui de l’exploration automatique de zones qui subissent un brouillage électromagnétique par l’ennemi et qui rendent le guidage GPS impossible. L’Intelligence artificielle permet aujourd’hui aux drones en « GPS denied » de se déplacer de manière autonome dans un lieu inconnu, sans lien avec la station sol du drone, de s’orienter, d’effectuer une mission de renseignement puis de revenir en zone amie. Dans ce contexte, le niveau d’autonomie atteint les niveaux L3, L4.

La lutte anti sous-marine et en particulier la détection des sous-marins nucléaires lanceurs d’engins est un autre cas d’usage de systèmes robotisés sous-marins organisés en essaims à très haut niveau d’autonomie, capables de quadriller une zone océanique sur une longue durée et de détecter les sous-marins ennemis.

Les Nations Unies souhaitent imposer des règles juridiques plus contraignantes sur l’utilisation des armes autonomes mortelles. Les Etats sont-ils suffisamment protégés face à ce risque ? Certaines nations sont-elles réticentes face aux projets d’encadrement et de restrictions de ces technologies ?

Comme déjà dit, on doit parler de systèmes armés dotés d’un certain niveau d’autonomie. Une arme étant par définition « mortelle » ou létale, le débat sur l’encadrement des SALA (Systèmes Armés Létaux Autonomes) initiés à l’ONU va se heurter au mur de la rationalité et de la course aux armements technologiques. L’autonomie fait partie de cette course. Ni la Chine, ni les Etats-Unis, ni la Russie ne signeront un accord interdisant l’IA militaire ou la robotique militaire. A partir de ce constat, aucune puissance militaire du second cercle ne le fera non plus : Inde, Grande Bretagne, Israël, Iran, Arabie Saoudite, Canada, Australie, Japon, Corée du Nord. Aucune de ces puissances militaires ne signera un traité d’interdiction ou de non-prolifération contraignant car la prolifération et la course à « l’IArmement » sont déjà entrées en action, partout hors des frontières européennes mais également en Europe. Seuls les pays non producteurs d’armement, non utilisateurs d’armes, neutres, placides et sans ennemis seront en mesure de signer un accord unilatéral contraignant. Si l’on retire le mot sensible « contraignant » alors tout devient possible à l’ONU. Tout le monde acceptera de signer un texte affichant de bonnes intentions de limitations non contraignantes dans un contexte d’apaisement mondial et de fin des conflits qui est le nôtre en décembre 2023. Le secrétaire général de l’ONU et les ONG pourront alors se réjouir d’avoir obtenu un accord consensuel, humaniste, bienveillant, mais non contraignant… Pour dire les choses plus directement, aucune armée n’est prête à se lier les pieds et les mains volontairement en s’interdisant la production et l’usage de systèmes robotisés armés dotés d’IA. Et si une puissance décidait de signer unilatéralement une interdiction contraignante, cela signifierait qu’elle accepte d’envoyer ses soldats humains combattre des systèmes robotisés ennemis dans une confrontation qui ne laisserait aucune chance à l’humain… Une fois de plus, il faut s’interroger sur les motivations profondes d’ONG hyperactives en Europe, cherchant à convaincre les gouvernements de signer une interdiction unilatérale ? A qui profiterait cette limitation ?

Les entreprises de l’IA sont-elles suffisamment conscientes des dangers de cette technologie si elle était appliquée à des armes intelligentes ?

Les entreprises de l’IA ont des activités très variées. Certaines sont spécialisées dans l’entrainement de modèles d’apprentissage statistiques, d’autres développent des modules de « computer vision » dédiés à l’analyse automatique d’objets dans une image, une vidéo ou pour la reconnaissance faciale. De nombreuses startups ont été créées autour des récents progrès des IA génératives (GPT4). L’IA embarquée dans les systèmes robotisés constitue une spécialité des entreprises de l’IA. Chez les géants américains, il y a eu effectivement quelques turbulences chez une partie des employés en Silicon Valley, opposés au développement d’IA pouvant être déployées sur des projets militaires. D’autres sociétés au contraire affichent leur volonté de contribuer à l’effort de guerre américain en collaborant avec l’US ARMY et la DARPA. Les nouvelles menaces géopolitiques de la Chine et de la Russie renforcent l’émergence de startups de l’IA pour les centres de commandement, pour l’aide à la décision et la robotique semi-autonome. Le cas de la pépite ANDURIL est emblématique aux USA. La société est en très forte croissance après sa levée de fonds de 1,5 Milliard de dollars en 2022. Elle avance très vite et se spécialise dans le développement de systèmes de programmes d’autopilote embarqués pour rendre autonomes des robots aériens, terrestres, marins et sous-marins. En Europe, nous avons l’exemple de la société HELSING [5] spécialisée elle aussi en IA militaire. HELSING a levé plus de 200 Millions d’euros et souhaite devenir l’un des leaders mondiaux, en réunissant les meilleurs talents de l’IA. En Chine, toutes les startups de l’IA ont, par nature, une activité de recherche et développement duale, à la fois civile et militaire. Il en est de même en Russie. Les tensions internationales et le retour des guerres de haute intensité renforcent mécaniquement la filière de la robotique militaire. Le seul danger identifié est bien celui d’un éventuel retard de développement de notre filière d’IA militaire.

[1] Thierry Berthier - RDN n°860 – « Mesurer la (haute) intensité d’un combat »

https://www.defnat.com/e-RDN/vue-article.php?carticle=23175&cidrevue=860

[2] Thierry Berthier - RDN n°820 – « Systèmes armés semi-autonomes : que peut apporter l’autonomie ? »  https://www.defnat.com/e-RDN/vue-article.php?carticle=22043&cidrevue=820

[3] ANDURIL : https://www.anduril.com/

[4] Système LAD SCS - ANDURIL ANVIL :  https://www.anduril.com/hardware/anvil/

[5] HELSING : L’IA au service des démocraties :  https://helsing.ai/fr

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !