Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
High-tech

AI

Intelligence artificielle : Elon Musk a raison de nous alerter sur le plus grand risque auquel est confronté notre civilisation

L'intelligence Artificielle effraie un bon nombre de scientifiques, de par sa complexification permanente et sa multiplication. Mais cette peur n'est pas forcément justifiée...

Atlantico : de manière générale, quel avenir réserve-t-on aux intelligences artificielles?

Jean-Pierre Ganascia : Effectivement, cela fait plusieurs années que des personnalités reconnues du monde contemporain, en particulier des scientifiques prestigieux comme l’astrophysicien Stephen Hawking, que l’on ne présente plus, ou Frank Wilczek, prix Nobel de physique, ou encore des hommes d’affaire aux réussites époustouflantes comme Bill Gates et Elon Musk, lancent des cris d’alarme dans les médias pour faire part de leurs craintes au sujet du développement de l’intelligence artificielle. 

Ils ont en partie raison en cela que la numérisation de l’ensemble des activités humaines et des échanges interindividuels transforme le monde et donne une prise croissante sur la société à l’intelligence artificielle qui sait en tirer un très grand profit, et ce à la fois pour le meilleur, par exemple pour mieux diagnostiquer et soigner les maladies ou pour prévenir les risques climatiques, mais aussi pour le pire, lorsqu’il s’agit de pister les individus à la trace, ou de les profiler pour stimuler leur consommation, ou encore de les convaincre de voter en faveur de tel ou tel parti. Qui plus est, les techniques d’apprentissage machine que l’intelligence artificielle a développées anticipent le futur sur la base de ce qui s’est produit dans le passé. Ce faisant, elle aident à prendre des décisions sur des fondements empiriques. Il en résulte des changements majeurs à la fois dans la gestion de la société civile et dans la gouvernance des États. Ainsi, grâce à ces systèmes prédictifs, on sera en mesure d’apprécier le risque avec une précision accrue, ce qui permettra de moduler les primes d’assurance à l’extrême, jusqu’à supprimer leur caractère mutualiste. De plus, l’opacité des technologies mises en œuvre ne permettra plus à l’assuré de vérifier que le risque calculé par sa compagnie d’assurance correspond bien à celui qu’il prend ; en conséquence, il se pourrait des compagnies malhonnêtes introduisent, dans leur calcul, d’autres critères, comme la propension de l’utilisateur à changer d’assureur. Ainsi, les clients les moins « mobiles », subiraient des hausses de tarifs bien plus grandes que les autres. Cette exemple dans le secteur des assurances illustre des changements qui s’engagent dès à présent à tous les niveaux de la société et qui risquent d’avoir des conséquences politiques incalculables dans les années qui viennent. En cela le début de la déclaration récente d’Elon Musk qui s’inquiète de risques pour la civilisation m’apparaît pertinent. 

En revanche, les déclarations antérieures de Stephen Hawking qui évoquaient un « risque existentiel pour l’humanité » n’étaient pas fondées scientifiquement. De même, l’idée exprimée dans la suite de la déclaration d’Elon Musk selon laquelle l’intelligence artificielle pourrait être à l’origine d’un conflit en falsifiant et en manipulant l’information, voire qu’elle pourrait démarrer une guerre en gonflant artificiellement les investissements dans le secteur de la défense par le piratage et la désinformation relève de la pure fiction. En effet, tout cela suppose que l’intelligence artificielle possèderait une volonté propre qui échapperait à la volonté humaine.

Comment une IA peut-elle se "rebeller"? A l'instar des trois lois de la robotique imaginées par l'écrivain d'Isaac Asimov, quels sont les garde-fous et les limites à ne pas dépasser pour éviter ce genre de situation?

Pour répondre à la première question, il convient de rappeler que, pour l’instant, les connaissances que nous avons sur l’intelligence artificielle ne permettent en aucun cas de laisser entendre que l’on serait en mesure de fabriquer des machines qui agiraient pour elles-mêmes, avec des objectifs qu’elles auraient déterminés et qui s’opposeraient frontalement aux nôtres. En d’autres termes, si les machines que nous construisons possèdent une autonomie technique en mesure d’excéder nos propres capacités et notre sagacité, elles ne disposent d’aucune autonomie morale. Leurs objectifs viennent de l’extérieur ; nous les leurs donnons lorsque nous les concevons. L’apprentissage supervisé dont on les dote ne change rien à l’affaire. 

En revanche, lorsque ces mêmes machines tirent parti de leurs expériences passées grâce aux techniques d’apprentissage supervisé que nous venons de mentionner, et que, de ce cette façon, elles se reprogramment dynamiquement, il arrive qu’elles se conduisent d’une façon imprévisible, car personne n’a jamais été en mesure d’accéder à l’ensemble des données qu’elles utilisent, et encore moins de les exploiter. Nous devons alors contrôler leurs comportements afin qu’ils obéissent toujours à un certain nombre de règles de bon sens, par exemple qu’ils ne mettent pas inutilement en danger la vie humaine. C’est alors que les intuitions d’Isaac Asimov prennent tout leur sens : il faut s’assurer que les machines n’outrepasseront jamais, dans leur comportement, les prescriptions morales dont nous souhaiterions les doter. Or, lorsque nous essayons d’expliciter ces prescriptions, nous constatons que nous retrouvons confrontés aux mêmes difficultés que celles qu’avait pressenties Isaac Asimov dans ses romans : les injonctions morales tendent à se contredire dans des situations particulières. Heureusement, les travaux d’intelligence artificielle symbolique développés depuis les années 1980 aident à surmonter ces obstacles en ayant recours à des logiques dites non monotones. À titre personnel, ces questions me passionnent et je travaille sur ce sujet avec d’autres spécialistes d’intelligence artificielle et avec des philosophes dans le cadre du projet EthicAA (Éthique des Agents Autonomes) financé par l’Agence Nationale de la Recherche. 

Selon le fondateur de Space X et Tesla, Elon Musk, l'intelligence artificielle pourrait être le plus gros danger auquel l'humanité pourrait faire face à l'avenir. Il n'est pas le premier à tenir ce genre de propos ; Bill Gates et Stephen Hawking sont du même avis que le milliardaire sud-africain. Ont-ils raison de s'inquiéter de la multiplication et de la perfection des IA ?

L’intelligence artificielle est centrale pour l’avenir, car elle seule est et sera en mesure de traiter les immenses masses d’information générées par les capteurs et par les échanges interhumains et de nous aider à leur donner sens. De plus, elle simule différentes fonctions cognitives qui sont mises à profit dans des agents artificiels autonomes, qu’ils soient matériels, comme les robots, ou virtuels, comme les bots. Pour toutes ces raisons, elle joue et jouera un rôle de plus en plus important dans les sociétés futures. Il faut donc s’assurer que nous serons en mesure de la maîtriser et, surtout, que nous ne déléguerons pas cette maîtrise à des sociétés privées, en l’occurrence aux grands acteurs de l’internet qui, pour l’instant, possèdent les données qui en ouvrent les portes. En cela, la déclaration que vient de faire Elon Musk atteste d’une évolution assez étonnante : alors qu’il se présentait jusqu’ici comme un « libertarien », à savoir comme le tenant d’une doctrine qui limite l’intervention des États à la défense de la propriété et à la protection des libertés individuelles essentielles, il demande désormais aux États de légiférer avec promptitude et fermeté pour superviser le développement technologique. Est-ce que cela témoigne d’un changement radical de l’attitude des grands acteurs de l’internet vis-à-vis des États ou simplement d’un recul tactique dans une stratégie de communication destinée à asseoir le pouvoir de ces mêmes acteurs en démontrant l’insuffisance des États ? Seul l’avenir nous le dira.

Commentaires
Nos articles sont fermés aux commentaires.