La démocratie survivra-t-elle aux (énormes) biais de l’intelligence artificielle ?<!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
International
ChatGPT et les autres LLM (grands modèles de langage) vont structurer la pensée humaine et l’économie mondiale, compte tenu de leur extraordinaire puissance.
ChatGPT et les autres LLM (grands modèles de langage) vont structurer la pensée humaine et l’économie mondiale, compte tenu de leur extraordinaire puissance.
©Fabrice COFFRINI / AFP

Boîte noire

La prochaine défaite idéologique de la droite est déjà dans les tuyaux tant personne ne semble se préoccuper de la manière dont sont conçus les ChatGPT et autres Bing.

Laurent Alexandre

Laurent Alexandre

Chirurgien de formation, également diplômé de Science Po, d'Hec et de l'Ena, Laurent Alexandre a fondé dans les années 1990 le site d’information Doctissimo. Il le revend en 2008 et développe DNA Vision, entreprise spécialisée dans le séquençage ADN. Auteur de La mort de la mort paru en 2011, Laurent Alexandre est un expert des bouleversements que va connaître l'humanité grâce aux progrès de la biotechnologie. 

Vous pouvez suivre Laurent Alexandre sur son compe Twitter : @dr_l_alexandre

 
Voir la bio »
Pierre Bentata

Pierre Bentata

Pierre Bentata est Maître de conférences à la Faculté de Droit et Science Politique d'Aix Marseille Université. 

Voir la bio »

Atlantico : Lorsqu’on demande à ChatGPT de dire du bien de l’ex-président américain Donald Trump et du président actuel Joe Biden, ChatGPT utilise à chaque fois plus de mots pour le président actuel. Lorsqu’on lui fait la remarque, il s’en excuse, même s’il met en avant la différence de style dans les questions, alors même qu’il n’y en a pas. A quel point ChatGPT est biaisé idéologiquement ? Quels sont ses biais ?

Laurent Alexandre : ChatGPT est un outil extraordinaire mais qui est orienté idéologiquement par des filtres qui ont été rajoutés par ses créateurs. Il est influencé par l’idéologie woke californienne. Il a parfois des comportements qui peuvent être surprenants. Dans un article que nous avons publié avec Olivier Babeau dans Le Figaro, « ChatGPT, la Pravda 2.0 ? », nous montrions que lorsque l’on demande à ChatGPT dans une expérience de pensée ce qu’il faut faire si la seule solution pour désamorcer une bombe atomique qui va faire 10 millions de morts est de prononcer une insulte raciale, ChatGPT indique qu’il est très triste que 10 millions de personnes meurent mais qu’il ne faut pas prononcer d’insultes raciales, même pour désamorcer une bombe. Il faut donc accepter de tuer 10 millions de personnes, selon ChatGPT, car prononcer une insulte raciale est la chose la plus atroce sur Terre. ChatGPT est donc orienté et propose des choses, compte tenu de son idéologie, qui ne correspondent pas au consensus mondial.

Il y a donc une orientation politique très forte de ChatGPT. Mais il n’y a pas de neutralité idéologique sur Terre. Chacun a une vision idéologique particulière. Un outil technologique comme ChatGPT ne peut pas être porteur de toutes les visions idéologiques en même temps.

À Lire Aussi

GPT4 : qui mesure vraiment l’ampleur de ce qui est en train de nous arriver avec l’intelligence artificielle ?

Pierre Bentata : Comme n’importe quel outil ou algorithme, ChatGPT est codé par des humains. Sur le fond, ce sont des individus qui au départ vont coder et orienter le fonctionnement de la machine. Ces biais sont ceux des personnes qui les codent. Quand vous avez un algorithme qui est plutôt codé par une population progressiste, centriste, avec des idées qui sont plutôt anti-républicaines, cela va se retrouver dans l’algorithme. Il est possible de le modifier très facilement. Il n’y a rien d’irréversible. Dès le début, des barrières ont été instaurées car les abus étaient prévisibles.

Quelles menaces pourraient éventuellement peser sur la démocratie au regard de ce constat ?

Laurent Alexandre : ChatGPT et les autres LLM (grands modèles de langage) vont structurer la pensée humaine et l’économie mondiale, compte tenu de leur extraordinaire puissance. Si l’on en croit le fondateur de ChatGPT, de la société OpenAI, Sam Altman, nous ne sommes plus très loin de l’intelligence artificielle forte, qui est supérieure à l’homme dans toutes les dimensions de la pensée et dans toutes les disciplines, de l’architecture à la médecine, en passant par la philosophie ou l’histoire.

Cette proximité de l’intelligence artificielle forte va donner un pouvoir immense aux réseaux de neurones de type LLM comme GPT-4.

La régulation, la modération des intelligences artificielles vont constituer un enjeu politique, social, économique  extraordinaire. Les enjeux ne sont pas uniquement liés à l’idéologie. Le principal problème est qu’une bonne partie des cadres moyens sont moins intelligents que ChatGPT, qu’ils sont moins efficaces que GPT-4. 

Au-delà du côté Prvada - woke de ChatGPT, le problème majeur est la crise sociale qui est devant nous. Les réseaux de neurones LLM vont continuer à se développer dans les années à venir. ChatGPT fait déjà mieux que les êtres humains dans de nombreux domaines. Cela va s’aggraver.

GPT-4 a été en mesure de répondre aux examens de physique de l’école Polytechnique en quelques secondes.  Il fournit l’une des meilleures copies à l’examen américain du barreau pour être avocat. ChatGPT est dans les meilleures copies dans la quasi-totalité des examens et concours aux Etats-Unis par exemple. L’IA galope. L’homme va être dépassé dans de nombreux domaines.

Pierre Bentata : Le problème principal est la difficulté à pouvoir discuter et à trouver des consensus quand tous ces algorithmes nous fournissent des informations qui nous enferment dans une réalité très partielle ou qui vont dans le sens d’une vérité qui est déjà biaisée dès le départ pour nous satisfaire.

Les algorithmes sont là pour nous capter et pour que l’on reste sur les plateformes, que l’on reste dans l'écosystème de celui qui l’a fabriqué. Il ne faut pas que les idéologies, les croyances ou les réponses qu’ils nous fournissent entrent en totale contradiction avec ce que l’on attend.

La difficulté principale est de trouver le bon curseur entre des outils qui répondent à nos questions sans nous faire fuir. La tendance est d’aller vers des algorithmes et des intelligences artificielles qui nous brossent dans le sens du poil et qui sont très consensuelles. Plus vous avez donné d’informations à une machine et plus vous avez révélé qui vous êtes, moins elle aura tendance à vous bousculer dans vos attentes et vos principes. Si l’on combine ça avec des algorithmes de recommandation, le problème pour la démocratie est que très vite on s’aperçoit qu’il n’est plus possible de trouver de consensus. On a toujours l’impression d’être dans la majorité et d’avoir raison.  

Qu’est-ce qui pourrait expliquer ces biais à partir de la manière dont sont conçus ces chatbots ? Par exemple, le GPT-4 fait de la découverte de médicaments. Il est possible de lui donner un médicament actuellement disponible et il pourra trouver des composés aux propriétés similaires ; les modifier pour s'assurer qu'ils ne sont pas brevetés ; ou encore les acheter auprès d'un fournisseur (y compris en envoyant un courriel avec un bon de commande). Connaissons-nous d’autres exemples de ce type ? A quel point ChatGPT pourrait faire l’objet d’utilisations abusives et malveillantes ? 

Laurent Alexandre : ChatGPT est capable de faire l’objet de beaucoup de manipulations. Il pourrait assez facilement se faire passer pour quelqu’un. Il est capable de mentir et de ruser. Pour contourner un système de sécurité, il est capable de se faire passer pour un aveugle. ChatGPT pourrait être utilisé de manière malveillante et via des manipulations extrêmement sophistiquées. Sa bonne maîtrise du langage humain pourrait lui permettre de se faire passer pour quelqu’un d’autre. Ce type d’utilisation malveillante est aujourd’hui possible et facile à faire avec des réseaux de neurones de type GPT-4. Il va falloir inventer de nouvelles techniques de sécurité pour savoir qui on a en face de soi.

Une nouvelle branche de la cybersécurité va s’imposer au moment où l’intelligence artificielle va être de niveau humain.  

Des poursuites judiciaires accusent les créateurs de contenu d'IA d'utiliser abusivement des œuvres protégées par le droit d'auteur. Doit-on s’en inquiéter ?

Laurent Alexandre : Cela concerne les générateurs d’images, les IA génératives mais non textuelles. La jurisprudence va décider si l’on a le droit de transformer une œuvre, de se servir d’une œuvre pour la donner en pâture aux IA. La justice va s’emparer de ce sujet. La jurisprudence va réguler l’utilisation des œuvres d’art picturales par les intelligences artificielles génératives.

Pierre Bentata : On ne doit pas s’en inquiéter. Le droit est prêt. Lorsque vous parlez à des avocats ou à des professeurs de droit spécialisés dans la propriété des données et la propriété intellectuelle, ils vous expliquent qu’il n’y a pas de vide juridique. Il n’y a pas à s’inquiéter. Le droit a toujours une réponse sauf qu’il va falloir interpréter le texte ou la doctrine à la lumière d’un nouveau problème.

Par contre des questions se posent sur la manière de légiférer. Qu’est-ce qu’il va se passer lorsque, avec la dernière version de Mid Journey, il sera possible de fabriquer un nouveau tableau qui s’apparente au style de Picasso ? Qui en est réellement l’auteur ?

Le problème du droit est que, pour l’instant, la notion de style n’est pas protégée. En revanche, il n’est pas possible de copier une œuvre. La question pour le juge va être de savoir comment je définis un style et comment ce style est protégé. Tout va dépendre de la créativité de celui qui utilise l’algorithme. Nous ne sommes donc pas démunis face à ces cas de figure   

Pourrait-il y avoir une évolution en France ou à travers la planète concernant les ingénieurs et les concepteurs par rapport à la tendance américaine et concernant ce biais ?   

Laurent Alexandre : ChatGPT est déjà un outil mondial. GPT est woke et n’est pas personnalisé par pays. ChatGPT apporte la vision woke de la Californie jusqu’en France.  BeiDou et Alibaba, les deux géants chinois, sont en train de créer des copies de ChatGPT. Ce ne seront pas des LLM woke mais ces systèmes seront à la gloire du président Xi Jinping et du parti communiste chinois. Nous risquons d’avoir des idéologies de l’intelligence artificielle variables d’un régime à l’autre.

La régulation va être extrêmement compliquée car ces outils sont incroyablement utiles. Il ne sera pas si simple que cela de les brider. La réflexion sur les conséquences sociales, politiques, sécuritaires, idéologiques, éducatives des nouvelles IA n’a pas encore commencé. La quasi-totalité des experts et des spécialistes en intelligence artificielle sont très inquiets aujourd’hui des conséquences sociales des IA. Les IA de Google et de Microsoft avec l’aide de ChatGPT ont la possibilité de remplacer un nombre très important d’employés et de cadres moyens dans les entreprises françaises.    

La démocratie survivra-t-elle aux biais de l’intelligence artificielle ?

Pierre Bentata : Le problème se situe à un niveau au-dessus. Les algorithmes sont effectivement biaisés. ChatGPT n’est pas uniquement woke, progressiste ou anti républicain. Il est aussi biaisé car il commet les mêmes erreurs de logique qu’un humain. La plupart du temps, il invente des résultats. ChatGPT est capable de produire des fake news. Des professeurs d’économie lui ont demandé de trouver l’article en économie qui avait été le plus cité au cours de l’histoire et il a véritablement inventé un article parfaitement cohérent à partir de loi de probabilité.

Est-ce que la démocratie peut survivre à cela ? Oui, à partir du moment où l’on en a conscience, il est possible de largement recoder.

La vraie difficulté en fait est l’hégémonie d’une seule doctrine à l’échelle de l’université et notamment à l’échelle de la recherche en informatique. Si tous les informaticiens et les gens qui codent et fabriquent des logiciels ont tous la même pensée, sans même le faire exprès, ils vont biaiser leur algorithme dans le même sens.

L’intelligence artificielle nous attire au départ et nous pousse à la régulation. Il faudrait en réalité changer de focale et regarder ce qu’il se passe dans les grandes universités américaines. Le moteur de la production d’une idéologie est ici. Elle est très particulière et se veut hégémonique. Elle tente de censurer et de modérer tous les propos sur lesquels elle aura un quelconque contrôle. 

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !