Pourra-t-on inculquer un sens moral aux robots ? | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
High-tech
Un robot humanoide.
Un robot humanoide.
©Reuters

Cyber-émotions

Pourra-t-on inculquer un sens moral aux robots ?

C'est un vieux rêve, déjà caressé par le romancier Isaac Asimov, le théoricien des "3 lois de la robotique". La réalité est plus complexe : à défaut de pouvoir être une copie conforme de l'homme sur le plan moral, le robot pourra au moins faire semblant.

Edouard Kleinpeter

Edouard Kleinpeter

Edouard Kleinpeter est ingénieur et responsable de la médiation scientifique à l'Institut des sciences de la communication (CNRS, Paris Sorbonne, UPMC). Son dernier ouvrage : L’humain augmenté, CNRS Éditions, coll. "Les Essentiels d’Hermès" paru en 2013.

Voir la bio »
Laurent Alexandre

Laurent Alexandre

Chirurgien de formation, également diplômé de Science Po, d'Hec et de l'Ena, Laurent Alexandre a fondé dans les années 1990 le site d’information Doctissimo. Il le revend en 2008 et développe DNA Vision, entreprise spécialisée dans le séquençage ADN. Auteur de La mort de la mort paru en 2011, Laurent Alexandre est un expert des bouleversements que va connaître l'humanité grâce aux progrès de la biotechnologie. 

Vous pouvez suivre Laurent Alexandre sur son compe Twitter : @dr_l_alexandre

 
Voir la bio »

Atlantico : Peut-on imaginer attribuer un jour une morale à un robot ? A quel problèmes concrets sera-t-on confronté ?

Edouard Kleinpeter : Tout d'abord, l'idée que les robots pourraient développer une morale présuppose une certaine conception de l'intelligence et de la conscience, à savoir qu'elles seraient, non pas des caractéristiques propres au biologique, mais des propriétés émergentes de l'interaction de plusieurs entités informationnelles. Ce premier point est, déjà, en soi contestable.

La moralité des robots est un vieux rêve qu'Isaac Asimov, entre autres, avait déjà essayé de formaliser avec ses fameuses "3 lois de la robotique", censées contraindre les robots à agir de façon morale. Or, toute l'oeuvre et le génie du romancier ont consisté, précisément, à montrer qu'elles étaient insuffisantes.

Je ne pense pas que les robots pourraient un jour être dotés d'une morale au sens où on l'entend. La morale n'est pas un processus que l'on peut retranscrire sous forme d'algorithme. Elle est, de surcroît, historiquement et sociologiquement située (notons qu'une morale qu'on inculquerait à des robots serait, à cet égard, celle de l'homme blanc, occidental et contemporain). Bien que les robots puissent ressentir leur environnement à travers des capteurs, il leur manque l'aspect sensible de ces informations, les pulsions, le rapport au corps, à l'amour, etc. Et puis, comment voulez-vous que des êtres sans sexualité puissent être dotés d'une morale ?

Le développement de robots dont l'apprentissage est autonome ne répond pas à ces impératifs qui permettraient le développement d'une morale intériorisée. Donner l'impression qu'il agit sous une contrainte morale est en revanche possible : il faudrait pour cela que l'homme lui inculque au préalable la manière d'envisager chacune des situations, avec la ou les réactions "morales" à avoir, ou encore la possibilité de faire des analogies entre elles.
Laurent Alexandre : Ce n’est pas le robot qui sera porteur d’une morale mais l’Intelligence Artificielle (IA) qu’il hébergera. Le robot ne sera que l‘effecteur mécanique de l’IA.
L’Intelligence Artificielle (IA) est longtemps restée un sujet de science-fiction. Elle est désormais une simple question de calendrier : l’explosion des capacités informatiques (la puissance des serveurs informatiques a été multipliée par 1 milliard en 31 ans) rend probable l’émergence d’une IA supérieure à l’intelligence humaine dans les prochaines décennies. Nous avons fêté hier, dimanche 19 avril 2015, le 50eme anniversaire de la loi de Moore. GAFA (Google, Apple, Facebook, Amazon) ainsi qu’IBM y investissent massivement mais Google est le plus avancé. Selon Ray Kurzweil, l’ingénieur en chef de Google, une IA dotée d’une conscience et 1 milliard de fois plus puissante que la réunion de tous les cerveaux humains devrait écraser l’intelligence humaine dès 2045. « Nous ferons des machines qui raisonnent, pensent et font les choses mieux que nous le pouvons » a expliqué il y a quelques semaines Sergei Brin, le co-fondateur de Google. La question de la morale des robots intelligents deviendra brulante dans les années qui viennent.

A quoi la morale d'un robot pourrait-elle ressembler ?

Laurent Alexandre : Les avis sont très tranchés sur cette question. Certains philosophes estiment que l’IA n’aura jamais de conscience d’elle même et donc n’aura pas besoin de morale.
A l’opposé, les transhumanistes pensent que les technologies NBIC (Nanotechnologies, Biotechnologies, Informatiques et Cognitique) vont faire émerger avant 2050 une IA forte dotée de conscience… et qu’il est donc urgent d’y réfléchir !
Dans un premier temps les robots auront la morale qu’on leur aura inculquée en écrivant le code de leur IA. Big Dog le robot militaire développé par Google pour le compte de l’armée américaine tuera des civils si on le code à cette fin. Il ne décidera pas. En tous cas pas la version actuelle.
A l’horizon 2050, il est possible que les robots puissent faire évoluer leur code informatique et donc découvrir, par tâtonnement, des valeurs morales peut-être très différentes des nôtres.

Dans quel cas un sens moral pourrait-il être utile aux robots ? Quelles situations ?

Laurent Alexandre : Quand une Google Car devra choisir entre écraser une vieille dame a gauche ou deux enfants de 8 ans sur la droite en cas de panne de frein… Il faudra bien des principes moraux. Vaut-il mieux deux morts ou un ? Une vie de vieillard vaut-elle une vie d’enfant ? La robotique va nous obliger à clarifier nos propres valeurs morales !

Implanter une morale autonome est un peu effrayant... Doit-on craindre une plus grande autonomie des robots ?

Laurent Alexandre : Les dangers sont multiples. On peut imaginer plusieurs scénarios noirs :

- Les militaires développent en secret une IA hostile pour acquérir la suprématie militaire. Les robots dotés d’IA acquièrent une autonomie non prévue par les militaires et deviennent hostiles y compris à l’armée qui les a fait naître. De ce point de vue, on doit être inquiet de la collaboration entre le moteur de recherche Baidu et les militaires chinois pour mettre au point une IA forte.

- De grandes sociétés, par exemple les GAFA, développent des robots intelligents pour développer des tâches très compliquées – robots médecins, robots pilotes… Et ces machines finissent par coopérer et s‘autonomiser. Ultérieurement, elles nous deviennent hostiles.

En fait nous risquons de développer des automates intelligents sans bien évaluer le risque qu’ils pourraient nous faire courir. Si nous voulons faire reculer la mort, il va falloir développer une IA extrêmement puissante car la biologie du vieillissement est ultra-complexe. Cette IA pourrait s’autonomiser…  Faudra-t-il choisir entre rester mortel et développer une IA potentiellement hostile ?

Où en est la recherche en la matière, quelles sont les avancées les plus prometteuses ?

Laurent Alexandre : Nous ne sommes qu’au début des réflexions sur ce sujet. Elon Musk, le fondateur de Tesla et Space X, a donné 10 millions de dollars pour accélérer les travaux sur les moyens de contrôler l’IA dans le futur.

Les chercheurs envisagent plusieurs possibilités :

- Interdire sur toute la planète l’IA. Cela ne paraît pas réaliste. Jamais les États-Unis ou la Chine n’accepteront de brider leur puissance technologique au nom de ce type de moratoire.

- Construire des circuits intégrés spéciaux dans lesquels les lois d’Asimov, interdisant aux robots d’attaquer les humains,  seraient codées en dur.

- La troisième solution est la plus effrayante pour l’Homme de 2015 : le neuro-enhancement ! Pour être à la hauteur des automates, Google propose de nous hybrider avec l’IA : devenir cyborg pour ne pas être dépassé par l’IA et les robots ! Ray Kurzweil, de Google, a déclaré que nous utiliserons des nanorobots intracérébraux branchés sur nos neurones pour nous augmenter dès 2035. Il s’agira d’éviter d’être inférieur aux machines, au risque de devenir leurs esclaves dans un scenario à la Matrix. Les technologies d’augmentation seront le seul moyen d’espérer conserver une certaine d’autonomie.

Comme vous le voyez, il n’y a pas de solutions simples !

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !