Intelligence artificielle : ces gros détails que Stephen Hawking oublie quand il prédit qu'elle pourrait détruire l'humanité | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
International
Des dangers pourraient provenir de l’émergence de l’intelligence artificielle.
Des dangers  pourraient provenir de l’émergence de l’intelligence artificielle.
©Reuters

Frankenstein

Intelligence artificielle : ces gros détails que Stephen Hawking oublie quand il prédit qu'elle pourrait détruire l'humanité

Stephen Hawking, chercheur anglais réputé pour ses travaux en physique et en cosmologie, signe une tribune dans le journal The Independent dans laquelle il explique que la communauté scientifique n’est pas suffisamment informée des éventuels dangers qui pourraient provenir de l’émergence de l’intelligence artificielle.

Jean-Gabriel Ganascia

Jean-Gabriel Ganascia

Jean-Gabriel Ganascia est professeur à l'université Pierre et Marie Curie (Paris VI) où il enseigne principalement l'informatique, l'intelligence artificielle et les sciences cognitives. Il poursuit des recherches au sein du LIP6, dans le thème APA du pôle IA où il anime l'équipe ACASA .
 

Voir la bio »

Atlantico : Stephen Hawking signait le 5 mai une tribune dans les colonnes de The Independent (voir ici), où il exprimait sa crainte concernant l'avenir des Hommes, face aux avancées technologiques. Ces craintes, venant d'un scientifique de renommée mondiale, sont-elles fondées ? Quand Hawking décrit un monde dominé par des machines capables de s'auto-construire, de produire des armes hors de notre portée et de nous manipuler tous, ne va-t-il pas un peu loin ?

Jean-Gabriel Ganascia : Les craintes exprimées par Stephan Hawking, contresignées par un certain nombre de scientifiques reconnus, ne sont pas plus fondées que les thèses des transhumanistes qui promettent la venue d’une nouvelle humanité résultant du couplage des hommes et des machines. Elles évoquent un changement irrémédiable, une catastrophe à l’issue de laquelle l’homme se retrouverait dominé par des machines devenues hyperpuissantes, autrement dit, une apocalypse. Or, en tant que scientifiques, nous ne disposons pas d’éléments permettant de parvenir à de telles conclusions. En effet, en dépit des perfectionnements actuels, les machines demeurent parfaitement maîtrisables et rien de dit qu’elles pourraient ne plus l’être. Il n’y a pas eu de rupture d’ordre épistémologique, contrairement à ce que semble affirmer Stephen Hawking. Nous assistons, simplement, à un accroissement assez prévisible des possibilités offertes par la technique. Enfin, on se saurait parler d’une autonomie de la technologie : elle n’évolue pas d’elle même, indépendamment de nous. Elle est le fruit de l’activité humaine et résulte de la façon dont les hommes se l’approprient. Elle ne saurait donc nous imposer leur loi, par devers nous.

Quel est le véritable potentiel de la machine ? Hawking a-t-il raison de croire que la puissance, tant de développement que de calcul, est le principal aspect de l'intelligence ?

L’accroissement de la puissance des machines, à savoir l’augmentation de la vitesse d’exécution et de la quantité d’information stockée se produit à un rythme exponentiel depuis une cinquantaine d’années. Cela correspond à ce que l’on appelle couramment la loi de Moore, du nom de celui qui l’a formée en 1964. Cependant, rien ne dit que ce rythme subsistera dans les prochaines années. Il existe même de fortes raisons de penser que celui-ci pourrait se ralentir, au moins pour un temps, car les principes physiques sur lesquels repose la fabrication des processeurs actuels sont soumis à des limitations très bien connues.

Qui plus est, l’accroissement du nombre des composants et de leur densité n’équivaut pas à un accroissement de l’intelligence des machines, loin s’en faut. Si l’on multiplie par dix ou cent leur rapidité et/ou leur capacité de stockage, cela ne les rendra pas dix ou cent plus puissantes. On ne sait pas suffisamment ce qu’est l’intelligence pour être en mesure de la quantifier avec précision ; encore moins pour la reproduire.

Si ces craintes sont dénuées de logique, où trouvent-elles leurs sources ? Comment expliquer que de plus en plus d'intellectuels, comme Ray Kurzweil, estiment qu'à terme le domaine de la robotique dominera le monde ? N'y a-t-il pas un fond de vérité ?

Ces craintes trouvent leurs sources dans une tradition assez ancienne de la littérature de Science Fiction qui a mis en scène la notion de Singularité Technologique. Selon ces écrivains, il y aurait, dans les prochaines années, des évolutions en chaîne où les machines s’emballeraient. Plus récemment, des personnes reconnues pour leurs activités scientifiques, comme Ray Kurzweil, Ugo de Garis ou Hans Moravec, ont affirmé que ce scénario imaginaire se produirait très bientôt. Ils sont arrivés à convaincre de nombreuses personnes de la viabilité de leurs thèses. Cependant, rien dans les réalisations scientifiques actuelles ne laisse entendre que les machines se déploieront et s’agenceront de façon autonome.

Finalement, si Hawking a raison sur au moins un point, n'est-ce pas celui qui explique que l'avenir de l'Homme dépend de la robotique ? Quelle est la place de celle-ci dans notre future ?

Effectivement, les robots prennent une part de plus en plus grande dans les sociétés humaines, à la fois dans le monde du travail, avec l’automatisation des chaînes de fabrication ou avec la surveillance automatisé, et dans le monde des loisirs, avec la domotique, par exemple avec l’aspirateur-robot ou la tondeuse à gazon robot. De plus en plus de personnes prennent l’habitude de vivre au milieu de robots. A cela on doit ajouter que, pour des tâches complexes, il devient souvent utile de s’aider avec les conseils d’agents intelligents qui sont des robots virtuels. Bref, les robots prennent une part de plus en plus grande dans nos vies. Cependant, il ne faudrait pas confondre les transformations sociales capitales induites par la présence de robots, et l’évolution autonome de la technique et des robots qui se déploierait d’eux-mêmes et se reproduiraient de façon autonome, sans aide humaine, avec des finalités propres, et manifestant, éventuellement, des sentiments hostiles à l’humanité. En dépit des affirmations de Stephen Hawking, rien ne justifie ce scénario. Pour adopter une démarche vraiment scientifique, il faudrait confronter ce scénario à d’autres, pour renvoyer le plus probable. Or, rien de tout cela n’a été fait. On a donc plus affaire à une opération médiatique qu’à de la vraie communication de résultats validés rigoureusement.

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !