Gaspard Koenig : "Face à l’IA, il faut redonner à l'individu la capacité de faire ses propres choix, y compris s'ils sont sous-optimaux pour la société" | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
High-tech
Gaspard Koenig : "Face à l’IA, il faut redonner à l'individu la capacité de faire ses propres choix, y compris s'ils sont sous-optimaux pour la société"
©ERIC PIERMONT / AFP

Intelligence artificielle

Gaspard Koenig : "Face à l’IA, il faut redonner à l'individu la capacité de faire ses propres choix, y compris s'ils sont sous-optimaux pour la société"

Gaspard Koenig publie "La fin de l'individu : Voyage d'un philosophe au pays de l'intelligence artificielle" aux éditions de l'Observatoire. En exclusivité pour Atlantico, il revient sur sur les questions de l'IA.

Gaspard Koenig

Gaspard Koenig

Gaspard Koenig a fondé en 2013 le think-tank libéral GenerationLibre. Il enseigne la philosophie à Sciences Po Paris. Il a travaillé précédemment au cabinet de Christine Lagarde à Bercy, et à la BERD à Londres. Il est l’auteur de romans et d’essais, et apparaît régulièrement dans les médias, notamment à travers ses chroniques dans Les Echos et l’Opinion. 

Voir la bio »

Atlantico.fr : Vous expliquez dans votre livre "La fin de l'individu" à quel point l'IA peut nous "manipuler" en anticipant nos désirs et en choisissant à notre place et donc en nous ôtant une part de libre-arbitre. Le cœur du développement de l'IA est actuellement la Silicon Valley, donc les Etats-Unis. A quel point l'IA que l'on créé est-elle dépendante des valeurs de la société qui la conçoit ? Quid d'une IA chinoise par exemple ?

Gaspard Koenig : Quand on parle de "manipulation", il faut comprendre que ça n'est pas réellement l'IA qui agit mais les gens qui se manipulent eux-mêmes en donnant leurs datas. Ce que j'essaye de mettre en valeur dans le livre, c'est que l'IA en elle-même est une technologie tout à fait remarquable et parfaitement neutre idéologiquement mais qu'elle est ensuite mise en place dans des contextes dont il faut comprendre les fondements philosophiques fondamentaux.

Dans la Silicon Valley, lieu où cette technologie a été réellement industrialisée, on observe un double paradigme. D'abord celui de l'utilitarisme. Quand on dit "Make the world better", c'est qu'on le fait mieux en fonction de certains critères, à savoir souffrir le moins possible, apporter le plus de bien-être. Ca n'est pas un choix évident pour certains mais qui est fondamental dans l'utilitarisme. Le mot de passe de l'aéroport de Los Angeles est "Happy". Dans la région, il y a des smileys et des "happy" partout. C'est assumé. L'implication de cet utilitarisme, c'est qu'un système gère le bien-être du groupe : il y a un rapport plaisir maximum / peine minimum qui est recherché pour l'ensemble du groupe, même si c'est au détriment de certains individus. C'est un donc un système profondément collectiviste.

A l'inverse de la logique des produits commerciaux de l'ère industrielle où on essayait de faire plaisir au consommateur de manière individuelle, c'est le bonheur du groupe avant tout qui est recherché. L'exemple le plus simple de cela est le GPS version Google. On ne donne pas seulement le meilleur itinéraire pour vous mais celui qui permet également de décongestionner les autres routes. Il y a une logique commerciale derrière cette stratégie des entreprises. Si le GPS donne le même parcours à tout le monde, cela créé des embouteillages et plus personne n'utilisera l'application.

Ce sont des logiques utilitaristes et collectivistes qui prennent en compte l'intérêt de la communauté. Ce mot "communauté" est la référence ultime. Au-delà de l'appartenance à l'Etat, le "community" représente l'ensemble de référence pour que cette logique utilitariste puisse s'exercer.

L'autre grand présupposé idéologique est celui de la fin du libre-arbitre qui s'accompagne de toute une référence académique à la psychologie, à l'économie comportementale ou la neuroscience. L'idée de base est que l'individu est manipulable, qu'on peut même mesurer son degré de réactivité aux incitations qu'on lui propose et on s'aperçoit d'ailleurs que ça marche très bien. On peut anticiper ses réactions et ses choix, que ce soit au niveau du consommateur que de celui du citoyen.

Donc puisque nous ne sommes pas des êtres rationnels, dotés de libre-arbitre, on se sent libre en tant qu'industriel de concevoir des "nudge", de mettre dans un sillon les individus.

Vous traitez notamment de l'essor de la Chine dans le domaine de l'IA, un secteur où l'Europe est à la traine. Les inquiétudes légitimes liées au développement de l'IA dans le monde occidental ne sont-elles pas paradoxalement notre faiblesse pour imposer une IA performante et donc en accord avec nos valeurs ? Si l'on ne développe pas d'IA à l'européenne, ne risque-t-on pas d'être obligés de se soumettre à l'IA chinoise et donc à ses valeurs ?

Effectivement, la Chine n'est pas sujette à tous ces cas de conscience. Lorsqu'on parle de libre-arbitre à un Chinois, il rigole car c'est bien peu de chose par rapport au fait de s'extraire de la famine ou de bénéficier de l'éducation pour tous. De toute manière, l'individualisme n'est pas une valeur chinoise et ça n'est pas un hasard si on assiste à un retour du confucianisme sur le sol chinois. Les valeurs chinoises sont très fortes mais ne sont pas les nôtres; elles s'accommodent très bien d'une société hiérarchisée et d'une conception primordiale du bien commun. Dans cette logique-là, donner ses données personnelles est altruiste, les retenir est égoïste.

J'avais eu une discussion incroyable chez Alibaba où l'on m'expliquait qu'évidemment que les données récoltées par Alibaba pour réaliser la ville intelligente d'Hangzhou étaient mises en commun avec la police pour mieux repérer les criminels ou prédire les zones où les crimes pourraient survenir. Il ne fallait pas y voir de mauvaises intentions, il s'agissait simplement pour eux de leur devoir civique de réduire le nombre de crimes. Qui ne voudrait pas vivre dans une société parfaitement sûre ?

Quand on parle des problèmes de vie privée, c'est une manière assez faible d'aborder le sujet, l'idée chinoise est de créer des "lacs de données" regroupant l'intégralité des données des individus pour produire un bien-être maximum via le développement d'algorithmes.

C'est dans cette optique-là qu'a été développée la "note sociale" chinoise. Nous voyons ça comme une abomination et sans doute avons-nous raison mais pour eux c'est un moyen d'évaluer le niveau de confiance que l'on peut accorder à quelqu'un. Actuellement cette appréciation est faite de manière humaine et n'est donc pas fiable. En prenant en compte l'intégralité de vos actions dans la société (la politesse, la régularité dans votre paiement de factures…) on peut décider de vous accorder un visa ou un crédit.

Les Chinois ne voient donc pas ça comme quelque chose de révoltant mais comme un moyen de récompenser ceux qui se comportent le mieux pour le groupe. On voit comment cette logique peut conduire à une normalisation totale des comportements et une éradication de tout ce qui peut être déviant, y compris évidemment au niveau de la pensée critique, la Chine étant de plus répressive sur ce point.

L'attrait de l'IA est sa capacité à nous épargner les taches du quotidien et donc une part de la souffrance. On le remarque via le cas de l'essor des assistants personnels. Mais souffre-t-on moins dans un monde où la contrainte quotidienne est supprimée, où l'on est infantilisé ? Les assistants ne nous transforment-ils pas en assistés, donc sans réel libre-arbitre puisque sans possibilité de retour en arrière ?

Les assistants sont effectivement en plein développement. Il y a l'exemple frappant des réponses automatiques de Gmail depuis quelques mois. En analysant une quantité phénoménale de réponses, Gmail parvient désormais à vous proposer une réponse automatique adaptée à votre personnalité. Petit à petit, on s'habitue à cliquer sur ces réponses car souvent elles sont assez justes. On se retrouve ainsi à faire confiance à cet algorithme, tout comme à celui de Google Maps qui propose de bons trajets. Petit à petit, on abandonne notre capacité à choisir. Certaines études neuroscientifiques montrent que l'utilisation intensive d'un GPS comme Waze, par exemple chez les chauffeurs VTC, conduit à l'atrophie de certaines zones cérébrales.

Ce qui est intéressant dans le choix c'est le processus, pas le résultat. Le résultat fourni par l'IA est effectivement souvent satisfaisant mais à force de cliquer sur ce qui nous est proposé et non sur ce que l'on cherche, on se conduit soi-même comme un robot. Petit à petit, on perd la capacité à se questionner.

Les assistants personnels provoquent un autre réflexe, celui de l'humanisation du robot. Ainsi, nous-mêmes devenons des robots mais nous humanisons également les robots car nous commençons à leur parler. C'est le même phénomène que l'humanisation de votre poupée ou doudou lorsque vous êtes enfant : on parle à son IA. Le film "Her" traite justement de cette problématique.

En humanisant le robot, on tombe dans l'illusion animiste. D'un point de vue anthropologique, c'est une régression car on donne une âme à une chose. Ce que vous répond votre assistant personnel lorsque vous lui parlez, c'est simplement ce qu'ont déclaré des millions de gens avant vous, une simple moyenne. En donnant une âme au robot, on retombe donc dans les travers animistes que démontrait Bachelard. Les assistants personnels risquent de nous faire revenir à un temps assez archaïque où l'on parlait aux choses...

Personnellement je suis plutôt technophile mais maintenant que l'on a identifié ce vrai biais qu'introduisent ces technologies et les superstructures idéologiques auxquelles elles correspondent, on peut parfaitement décider de les utiliser autrement en mettant en place une autre superstructure idéologique et en redonnant à l'individu une capacité à faire ses propres choix, y compris s'ils sont sous-optimaux pour la société. Cela passe pour moi par l'instauration d'une propriété privée sur les données personnelles.

A l'heure où la propriété privée est discutée, notamment par Thomas Piketty, je pense qu'il faut au contraire se rappeler des vertus émancipatrices de la propriété et du fait qu'elle a été élargie à chaque révolution industrielle : d'abord sur la terre, puis les droits d'auteurs et les brevets. Maintenant il est temps d'élargir la propriété aux données pour retrouver la maîtrise de nos destins numériques.

Gaspard Koenig vient de publier "La fin de l’individu : voyage d’un philosophe au pays de l’intelligence artificielle" aux éditions de l’Observatoire. 

Lien vers la boutique Amazon : ICI

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !