Ce que nous devons redouter de l’intelligence artificielle au service des “robots-tueurs”<!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
High-tech
Ce que nous devons redouter de l’intelligence artificielle au service des “robots-tueurs”
©Allociné / HBO

iRobot

La réalité serait-elle sur le point de rattraper la fiction? Le PDG de Tesla, Elon Musk, a prévenu des dangers imminents de l'intelligence artificielle et souhaite que des mesures soient prises au plus vite par les Nations-Unies.

Franck DeCloquement

Franck DeCloquement

Ancien de l’Ecole de Guerre Economique (EGE), Franck DeCloquement est expert-praticien en intelligence économique et stratégique (IES), et membre du conseil scientifique de l’Institut d’Études de Géopolitique Appliquée - EGA. Il intervient comme conseil en appui aux directions d'entreprises implantées en France et à l'international, dans des environnements concurrentiels et complexes. Membre du CEPS, de la CyberTaskforce et du Cercle K2, il est aussi spécialiste des problématiques ayant trait à l'impact des nouvelles technologies et du cyber, sur les écosystèmes économique et sociaux. Mais également, sur la prégnance des conflits géoéconomiques et des ingérences extérieures déstabilisantes sur les Etats européens. Professeur à l'IRIS (l’Institut de Relations Internationales et Stratégiques), il y enseigne l'intelligence économique, les stratégies d’influence, ainsi que l'impact des ingérences malveillantes et des actions d’espionnage dans la sphère économique. Il enseigne également à l'IHEMI (L'institut des Hautes Etudes du Ministère de l'Intérieur) et à l'IHEDN (Institut des Hautes Etudes de la Défense Nationale), les actions d'influence et de contre-ingérence, les stratégies d'attaques subversives adverses contre les entreprises, au sein des prestigieux cycles de formation en Intelligence Stratégique de ces deux instituts. Il a également enseigné la Géopolitique des Médias et de l'internet à l’IFP (Institut Française de Presse) de l’université Paris 2 Panthéon-Assas, pour le Master recherche « Médias et Mondialisation ». Franck DeCloquement est le coauteur du « Petit traité d’attaques subversives contre les entreprises - Théorie et pratique de la contre ingérence économique », paru chez CHIRON. Egalement l'auteur du chapitre cinq sur « la protection de l'information en ligne » du « Manuel d'intelligence économique » paru en 2020 aux Presses Universitaires de France (PUF).

Voir la bio »

Associé à plus de 100 experts de l’intelligence artificielle, Elon Musk fait aujourd'hui pression sur les Nations-Unies afin légiférer contre les armes autonomes. En quoi consistent ces armes? Pourquoi sont-elles dangereuses et quelle est leur présence actuelle dans le monde? 

Frank Decloquement : « L'intelligence artificielle est un risque existentiel fondamental pour la civilisation humaine, et je ne pense pas que les gens apprécient complètement cela » a déclaré dernièrement Elon Musk. Et ce qu'il a vu relève « d'un problème bien plus effrayant », avait rapporté le site de la radio publique américaine NPR.Le dilemme est clairement posé : l'intelligence artificielle (I.A.) et la robotique font toutes deux autant rêver les scientifiques et les industriels, qu'elles suscitent une peur diffuse auprès du grand public. La faute sans doute à certaines cassandres, mais aussi aux prophéties apocalyptiques brillamment popularisées dans le cadre de certaines franchises d’anticipations cinématographiques. Au premier rang duquel le film « Robocop » initialement mis en scène par le réalisateur néerlandais Paul Verhoeven tient une place toute particulière. Mais aussi la série des « Terminator », cette franchise planétaire culte initiée en son temps par le réalisateur à succès James Cameron. A ce propos, qui ne conserve pas dans un coin sa mémoire, le souvenir anxieux et l’appréhension chevillée au corps de cette fameuse entité artificielle maléfique nommée « Skynet » ? Car si ces technologies promettent bel et bien de révolutionner à l’emporte-pièce nos habitats, nos villes, nos transports, nos sciences médicales, ou encore les conditions de notre sécurité collective, elles menacent corrélativement de transformer radicalement la conduite de la guerre et la nature même des prochains conflits. Mais aussi de permettre la mise en œuvre de moyens de contrôle accrus et de répressions inédites sur les populations civiles. D’une puissance inégalée à ce jour nous promet-on !  Réalité ou fantasmes ? Discours suranné ? Faut-il réellement s’inquiéter ? C’est à ces questions fondamentales qu’ont tenté de répondre récemment un collectif de spécialistes, de renommée planétaire pour certains d’entre eux.

Bien placés pour présager les dangers liés à l’émergence très prochaine des « cyborgs-tueurs » et autres machines offensives, des scientifiques avaient déjà produit courant 2015, une première missive d’alerte à destination des autorités publiques des Etats occidentaux. Celle-ci avait eu un certain retentissement puisque l'ONU avait décidé d'inclure cette question à son agenda. Le lundi 21 août dernier, 116 responsables d'entreprises cette fois ; tous spécialistes avertis dans la robotique ou l'intelligence artificielle ; ont réitéré cette première initiative et adressé une lettre ouverte diffusée par le « Future of Life Institute », un organisme non lucratif basé aux États-Unis, directement aux Nations Unies elle-même. Plaidant pour une interdiction pure et simple de ces fameuses « armes autonomes », des machines offensives programmables et en principe capables de sélectionner et de tuer des cibles prédéfinies, sans intervention humaine. Une interdiction drastique, au même titre que les armes chimiques, les armes biologiques ou le clonage humain… Parmi ces spécialistes emmenés par l’emblématique PDG américain des firmes « Tesla » et « SpaceX » Elon Musk, on note également la présence de six Français très au fait des réalités que recouvrent ces technologies robotiques hybrides, ainsi que l'I.A à usage militaire. On trouve aussi Mustafa Suleyman, de la société britannique « DeepMind », détenue par Google.

Quelles sont, aujourd'hui, les deux écoles de pensée autour de la question de l'intelligence artificielle?

En premier lieu, il est peut-être nécessaire de rappeler à nos lecteurs que la technologie émergente de« l'intelligence artificielle », ou « I.A », croise plusieurs champs d’applications technologiques, en capacité de simuler les processus cognitifs humains. « L'intelligence artificielle » est donc une technologie comme une autre, au même titre que l'électricité ou l’Internet le furent en leur temps. Il n’est pas nécessaire d’en avoir peur en soi, car en définitive tout dépendra de ce que l'on en fera... Et pour cela, il est peut-être nécessaire de s’éloigner des visions par trop « catastrophistes » ? À l’image du concept de « singularité » : ce moment damné où l'intelligence artificielle serait supposément en capacité de dépasser l'intelligence humaine, tout en engendrant un progrès technologique exponentiel et imprévisible propre à permettre la « rébellion des machines intelligentes » contre leurs propres créateurs.
Plus prosaïquement, apparue dans le courant des années 60, la recherche s'est beaucoup développée depuis cette époque. Au point de multiplier très récemment les applications intégrant de nouvelles avancées décisives en la matière : « voitures autonomes », « diagnostics médicaux »« assistants personnels »« finance algorithmique » et « prédictive »« robots industriels »« jeux de simulation », etc... L'explosion formidable de la puissance de calcul, couplée à l’évolution exponentielle de la puissance de stockage mémoire dans des machines, a fait basculer l'I.A courant 2010, d'un classique des livres d’anticipation à une réalité de plus en plus concrète pour chacun :« Deep-learning »« algorithmes prédictifs »« réseaux neuronaux » ou encore « ordinateurs quantiques ». Autant d'espoirs pour les tenants du « transhumanisme » et de « la singularité » pour lesquels les enjeux scientifiques et sociétaux sont premiers. Autant de craintes pour de nombreuses autres personnalités issues de l’univers de la « high-tech ». À l’image d’un Stephen Hawking, d’un Bill Gates ou d’un Elon Musk qui pointent d’ores et déjà les risques éthiques et démiurgiques inhérents à une intelligence artificielle rendue par trop « autonome » ou « consciente », et le fragile équilibre « bénéfices-risques » quant à l'emploi futur « d’entités intelligentes offensives » non humaines…
Conscient qu’il sera à l’avenir plus acceptable pour les chefs militaires du futur, de déployer sur les prochains champs de bataille des machines offensives rendues « intelligentes » plutôt que des hommes armés, le problème réside au fond dans le fait d’octroyer cette possibilité de principe à une machine de pouvoir tuer un être humain de son propre chef… « Science sans conscience » prédisent certains : chacun connait fort bien la musique. Cet augure est tout simplement inacceptable pour les tenants de la prudence dans l’usage de ces technologies hybrides, puisque ceux-ci refusent catégoriquement que des civils puissent être tués par des machines offensives. Refusant par là même l’ouverture de la boite de Pandore, et préférant de loin une I.A en capacité de servir l’humanité, plutôt que de la voir contribuer peu ou prou à la détruire à travers un usage dévoyé…

Quels sont les limites, actuellement, de l'intelligence artificielle?

Les choses évoluent très vite en la matière. Et les acteurs politiques sont particulièrement fascinés par les possibilités qu’offrent les technologies robotiques et les progrès fulgurants en matière d'I.A. Toutefois, peu sont vraiment au fait des réelles avancées du secteur. Ce qui est particulièrement alarmant pour les tenants de la « prudence technologique » aujourd'hui, c'est justement le fait qu’ils considèrent tous l’I.A comme une technologie d’ores et déjà mature… Pour l'heure, on dispose encore de drones pilotés par des opérateurs humains qui doivent décider derrière leurs postes de pilotage déportés parfois à des milliers de kilomètres de la zone d’action, de tuer ou de ne pas le faire le cas échéant. Mais le seuil pour permettre à une machine de prendre cette décision par elle-même ; en fonction des informations qu’elle dispose au moment crucial du tir ; est désormais très ténue. Or, on perçoit bien que les demandes des décideurs au cœur des Etats et des forces armées sont de plus en plus pressantes. Un jour ou l’autre, des entreprises pourront finir par céder aux avances qui leur sont faites et passeront à l’acte. Classiquement, les militaires et les firmes qui travaillent en bonne intelligence ne communiquent pas sur le degré d’avancée de leurs recherches communes. Mais pour se faire une idée, il assez simple de considérer les progrès faramineux dans le domaine civil, puis d'imaginer que l’on puisse équiper ces robots « civils » avec des armes létales derniers cris. 
Quand on parle de « robots tueurs », nombreux sont ceux d’entre nous qui imaginent des cyborgs d’aspects « humanoïdes », à l’image du rustique T800 dans le film de James Cameron. Or les voitures ou les drones sont aussi des robots… Sur l'apparence « humanoïde »que pourraient revêtir certaines machines autonomes, il y a encore beaucoup d’étapes à franchir pour y parvenir. Et cela, en outre, compte tenu des problèmes liés à la stabilité générale du dispositif et le fait que les armes exercent de fortes poussées en phase de tir sur leurs porteurs. Pour les automobiles, les drones et les chars, le gap est lui minime. Il suffit d’ores et déjà y embarquer des armes existantes et de leur donner la capacité de délivrer « intelligemment » le feu en toute autonomie, et sans opérateurs humains. Ce sont sans aucun doute ces robots qui seront développés en priorité par les consortiums industriels. L'écrivain à succès Isaac Asimov avait imaginé quatre lois fondamentales de la robotique, dans l’objectif d’empêcher justement des dérives futures dans l’usage des machines offensives autonomes. On réalise aujourd’hui qu’il ne s’agit que d’une base de réflexion à partir de laquelle les développeurs pourront travailler à l’application, lors de la programmation des machines robotisées de ce type. Du côté juridique, chacun perçoit bien qu'il existe un flou qu’il faudra tôt ou tard combler concernant l’usage des armes offensives autonomes.

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !