Alerte aux robots tueurs : ce qu’oublient de prendre en compte Stephen Hawking, Elon Musk et autres sur les bienfaits potentiels de l’intelligence artificielle | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
High-tech
Dans une lettre ouverte publiée le 27 juillet, Stephen Hawking et Elon Musk réclament l’interdiction des "robots tueurs".
Dans une lettre ouverte publiée le 27 juillet, Stephen Hawking et Elon Musk réclament l’interdiction des "robots tueurs".
©Reuters

jus de cerveau

Alerte aux robots tueurs : ce qu’oublient de prendre en compte Stephen Hawking, Elon Musk et autres sur les bienfaits potentiels de l’intelligence artificielle

Stephen Hawking, Elon Musk et pas moins d'un millier de scientifiques ont récemment signé une lettre ouverte appelant au contrôle des armes dotées d'une intelligence artificielle (IA). Ils appellent à mettre en place des procédures de contrôle afin de limiter une course à l'armement robotisé qu'ils jugent inévitable.

Laurent Alexandre

Laurent Alexandre

Chirurgien de formation, également diplômé de Science Po, d'Hec et de l'Ena, Laurent Alexandre a fondé dans les années 1990 le site d’information Doctissimo. Il le revend en 2008 et développe DNA Vision, entreprise spécialisée dans le séquençage ADN. Auteur de La mort de la mort paru en 2011, Laurent Alexandre est un expert des bouleversements que va connaître l'humanité grâce aux progrès de la biotechnologie. 

Vous pouvez suivre Laurent Alexandre sur son compe Twitter : @dr_l_alexandre

 
Voir la bio »

Atlantico : Dans une lettre ouverte publiée le 27 juillet, Stephen Hawking et Elon Musk réclament l’interdiction des "robots tueurs". Avec près de 1000 autres signataires, ils dénoncent les dangers que peut représenter la création d'une intelligence artificielle, et mettent en garde contre une course à l'armement dotée d'une telle intelligence. Dans quel contexte intervient cette lettre ouverte ? Pourquoi l'intelligence artificielle cristallise-t-elle autant les peurs ? Faut-il réellement la craindre ? 

Laurent Alexandre : Depuis 6 mois, de nombreux scientifiques et industriels sont paniqués par la progression de la puissance informatique. Ils craignent l’utilisation de robots intelligents par les militaires et l’apparition d’automates hostiles à l’Humanité. Le fondateur de Deep Mind, récemment racheté par Google, qui est un leader de l’intelligence artificielle (IA), affirme que cette dernière peut menacer l’humanité dès le XXIe siècle.

Aujourd'hui, l'intelligence artificielle existe-t-elle ? Dans quels secteurs d'activité la retrouve-t-on ? Que peut-on en dire de positif ? 

Après des débuts chaotiques et beaucoup de faux espoirs, l’intelligence artificielle (IA) progresse désormais à vive allure. Il ne s’agit pas encore d’une IA ayant conscience d’elle­ même, mais elle est déjà capable de prodiges : la Google Car conduit de façon plus sûre que n’importe quel être humain; Watson, le système expert d’IBM, analyse en quelques minutes des centaines de milliers de travaux scientifiques cancérologiques qu’un oncologue mettrait trente-sept ans à lire... De plus en plus de tâches sont mieux effectuées par l’IA que par nous. Et ce n’est que le début : la puissance des serveurs informatiques est multipliée par 1 000 tous les dix ans.

Il faut bien comprendre qu’il existe deux types d’IA. L’IA faible qui n’a pas conscience d’elle-même et l’IA forte qui a des projets propres, évolue et sait qu’elle existe.

L’IA forte n’existe pas aujourd’hui et il existe des discussions à n’en plus finir entre spécialistes des sciences cognitives sur la possibilité d’en créer une avant 2050.

En revanche, l’IA faible est présente tout autour de nous. Google, la Google car, Itunes, Amazon… sont des IA faibles. L’IA va devenir ubiquitaire, elle va nous entourer.

Les gens de Google sont très optimistes.  Ils pensent que l’IA forte est proche et devrait écraser l’intelligence humaine dès 2045, selon Kurzweil. A cette date, l’intelligence artificielle sera, selon ce dirigeant de Google, 1 milliard de fois plus puissante que la réunion de tous les cerveaux humains et sera l’interfacé avec nos cerveaux.

"Dans environ quinze ans, Google fournira des réponses à vos questions avant même que vous ne les posiez. Google vous connaîtra mieux que votre compagne ou compagnon, mieux que vous-même probablement", a fièrement déclaré Ray Kurzweil, lequel est également persuadé que l’on pourra transférer notre mémoire et notre conscience dans des microprocesseurs dès 2045, ce qui permettrait à notre esprit de survivre à notre mort biologique. Ce sont ces perspectives vertigineuses qui expliquent les craintes actuelles.

Bill Gates lui-même est affolé par l’absence de réflexion politique sur les conséquences sociales de la fusion de l’intelligence artificielle et de la robotique. Il estime que les automates remplaceront d’ici à 2035 la majeure partie des métiers, y compris les professions de santé. Il a prévu par exemple que l’Intelligence artificielle remplacera les infirmières avant 20 ans. La montée en puissance de ces technologies  inquiète au sein même de Google, qui vient de créer un comité d’éthique consacré à l’intelligence artificielle. Il devra réfléchir à des interrogations qui concernent l’humanité tout entière : faut-­il mettre des limites à l’intelligence artificielle ? Comment la maîtriser ? Doit­-on l’interfacer à nos cerveaux biologiques ? 

Quels sont les secteurs qui peuvent en tirer un bénéfice maximum ? 

L’IA faible est déjà révolutionnaire. La Google car va bouleverser le monde des transports. Peugeot et Renault existeront-ils encore en 2030 ? C’est peu probable si ils ne mettent pas un pied dans la Silicon Valley !

L’IA faible va révolutionner la médecine. D’ici à 2030, plus aucun diagnostic médical ne pourra être fait sans IA. Il y aura un million de fois plus de données dans un dossier médical qu’aujourd’hui. Cette révolution est le fruit du développement parallèle de la génomique, des neurosciences et des objets connectés. L’analyse complète de la biologie d’une tumeur exige, par exemple, 100 millions de milliards d’opérations. De nombreux capteurs électroniques vont bientôt pouvoir "monitorer" notre santé : des objets connectés, comme les lentilles Google pour les diabétiques, vont ainsi produire des milliers puis des milliards d’informations chaque jour pour chaque patient. « Google X », le laboratoire secret, met au point un système de détection ultra précoce des maladies par des nanoparticules qui vont aussi générer une quantité monstrueuse d’informations.

Comprendre les maladies du cerveau d’un patient supposera d’injecter des quantités phénoménales de données dans le dossier médical. Les médecins vont affronter une véritable « tempête numérique » : ils devront interpréter des milliers de milliards d’informations quand ils ne gèrent aujourd’hui que quelques poignées de données.

C’est l’IA faible qui va permettre de tirer parti de toutes ses données. En chirurgie aussi, l’IA faible va changer la donne. L’intelligence artificielle et la robotique progressent désormais si vite que les prochaines générations de robots chirurgicaux vont dépasser puis remplacer les chirurgiens. L’IA va nous permettre de vivre plus longtemps.

Où en sommes-nous dans la création d'une super intelligence artificielle ? Quels dangers cela pourrait-il représenter ? 

Fabriquer une super intelligence suppose plus qu’une grosse capacité de calcul. Il faut également doter le programme d’une capacité à raisonner par lui-même et être conscient de sa propre existence. Personne n’a la moindre idée des technologies nécessaires pour obtenir cela. Peu de chercheurs envisagent que cela soit possible avant 2 ou 3 décennies.

La crainte est que la super-intelligence artificielle ne devienne hostile. Elle aura bien sur accès à Internet…. Or, il existe des milliers d’articles expliquant qu’il faudra interdire les IA fortes ou les débrancher.

Toute espèce intelligente (biologique ou artificielle) a comme premier objectif, sa propre survie. On peut craindre que l’IA forte se prémunisse contre notre volonté de la supprimer en cachant ses intentions. Comme l’ordinateur HAL 9000 dans le film de Stanley Kubrick « 2001, l’odyssée de l’espace ».

Nick Bostrom estime que l’IA forte pourrait à partir d’un certain seuil devenir 1 million de fois plus intelligente et puissante en quelques heures. Rapidement, nous ne pourrions même pas comprendre ses plans ! 

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !