Europe, Etats-Unis, Chine : chacun réfléchit à son modèle de régulation de l’IA. Mais qui le fait le plus intelligemment ?<!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
High-tech
Le logo de ChatGPT-4 et d'OpenAI.
Le logo de ChatGPT-4 et d'OpenAI.
©JAKUB PORZYCKI / NURPHOTO / AFP

Réglementations

Les autorités européennes, Washington et Pékin préparent des réglementations et des décisions pour encadrer l'intelligence artificielle face à la course à l'innovation et au progrès de l'IA et de ChatGPT.

Laurent Alexandre

Laurent Alexandre

Chirurgien de formation, également diplômé de Science Po, d'Hec et de l'Ena, Laurent Alexandre a fondé dans les années 1990 le site d’information Doctissimo. Il le revend en 2008 et développe DNA Vision, entreprise spécialisée dans le séquençage ADN. Auteur de La mort de la mort paru en 2011, Laurent Alexandre est un expert des bouleversements que va connaître l'humanité grâce aux progrès de la biotechnologie. 

Vous pouvez suivre Laurent Alexandre sur son compe Twitter : @dr_l_alexandre

 
Voir la bio »
Laurence  Devillers

Laurence Devillers

Professeure à l’université Paris-Sorbonne et chercheuse au Laboratoire d’informatique pour la mécanique et les sciences de l’ingénieur (Limsi) du CNRS

Voir la bio »

Atlantico : De plus en plus de voix appellent à une pause de six mois dans la recherche sur les intelligences artificielles. États-Unis, Europe, Chine… Quelles sont les différentes approches quant à la régulation de l’Intelligence Artificielle ? 

Laurent Alexandre : La régulation en Chine est très mal connue. Les discussions au sein du Parti communiste chinois pour la régulation de l’intelligence artificielle ne sont pas du tout transparentes. La Chine a pris beaucoup de retard en matière d’IA de type LLM comme ChatGPT. Ce que proposent Baidu et Alibaba aujourd’hui en termes d’intelligence artificielle est nettement en retard sur ce que développent les Américains. En ce qui concerne l’Europe, il y a quelques petites start-ups qui essaient de développer des modèles de type LLM comme Mistral qui est en train de lever 100 millions d’euros en France. Mais ce sont des mouvements de moindre importance comparativement à ce que l’on observe aux Etats-Unis. Sam Altman a l’intention de lever au total 100 milliards pour développer ChatGPT. Il a déjà levé 12 milliards et projette de lever 88 milliards supplémentaires pour aller jusqu’à l’intelligence artificielle générale.

Il y a donc un important retard chinois. Une Europe qui a des initiatives de petites tailles et des Etats-Unis qui concentrent les investissements les plus importants et où est né un courant de crainte avec une demande de moratoire lancée par Elon Musk et des experts comme Geoffrey Hinton, qui ont déclaré que les progrès de l’intelligence artificielle étaient effrayants et qu’il était important de réguler rapidement. Cela a conduit Hinton à démissionner de Google il y a une dizaine de jours.

À Lire Aussi

Rencontres en ligne : l'intelligence artificielle fait de gros progrès pour aider les gens à trouver l'amour

En Chine, la principale régulation n’est pas sur la puissance de l’intelligence artificielle mais sur le respect de la politique du Parti communiste chinois. C’est la raison pour laquelle les intelligences artificielles de Baidu et d’Alibaba n’ont été éduquées que sur des textes en mandarin de manière à ce qu’elles ne soient pas imprégnées de culture démocratique libérale occidentale. Une intelligence artificielle qui n’est éduquée que dans une seule langue est beaucoup moins performante qu’une IA qui est éduquée dans l’ensemble des langues mondiales. Cela conduit la Chine à avoir un retard par rapport aux Etats-Unis.

En Europe, une régulation va arriver avec AI Act que Thierry Breton va présenter dans les semaines qui viennent. Ce sera une régulation plus sévère qu’ailleurs. Il y aura le décalage habituel entre des Etats-Unis qui ne régulent pas beaucoup mais qui produisent énormément d’innovations. Et une Europe qui régule beaucoup et qui produit relativement peu d’innovation.

Aux Etats-Unis, nous allons probablement moins réguler qu’en Europe mais il y a une pression politique importante pour réguler les intelligences artificielles supérieures à GPT-4. C’est la raison pour laquelle Biden a réuni tous les leaders de l’intelligence artificielle la semaine dernière à la Maison Blanche : Demis Hassabis de Deepmind Google, Sam Altman de OpenAI et ChatGPT, le patron de Microsoft, le patron de Goggle…

Il va donc y avoir une régulation plus forte qu’on ne l’envisageait du fait du bruit politique fait autour de la demande de moratoire et des déclarations fracassantes de Hinton sur le risque à court terme que l’humanité avait à développer ce type d’intelligence artificielle. 

À Lire Aussi

Les ingénieurs Français sont des génies de l’IA… mais pas en France : radioscopie d’un énorme gâchis

Laurence Devillers : L’Europe a une vision différente et singulière comparativement à la Chine et aux Etats-Unis. Nous allons créer un système de régulation, le AI Act, et qui s’inscrit après plusieurs directives en ce sens, notamment le RGPD. L’idée du AI Act est de travailler sur les risques  et d’établir des lignes rouges à ne pas dépasser en matière d’intelligence artificielle. Les Américains et les Chinois ne sont pas dans ce type de démarche. Ils vont plutôt passer par des standards et expliquer qu’ils sont conscients des risques.

Les normes et standards sont réglementés par l’ISO au niveau mondial. Dans tous les pays européens, il y a des instituts de normalisation. Un de ceux qui est le plus connu en France est l’AFNOR. Un autre exemple concerne le JTC 21 - CEN-CENELEC, un groupe européen et international qui travaille sur ce que l’on voudrait normaliser, qui construit et propose des normes. Cette commission jointe (composée par des experts, des référents, des industriels et des chercheurs) essaye de construire des méthodologies pour aider la loi et la régulation sur l’IA. Le risque élevé va être interdit. Les normes et standards sont là pour aider l’industrie à être consciente des besoins. Tout cela s’articule autour de la loi, les normes et standards et l’éthique. Il peut y avoir des différences culturelles notables entre l’Europe qui souhaite réguler et les Etats-Unis qui ne sont pas enclins à le faire.

La stratégie européenne est lucide sur les risques de l’IA et souhaite mettre des barrières à ne pas dépasser.

ChatGPT est fait en majorité avec des données américaines. Il est possible de s’appuyer sur une langue pivot, l’anglais pour la traduction. Le flou persiste sur la manière dont GPT-4 a été nourri de données. Des informations ont filtré sur le GPT 3.5. Il y avait 46 % d’anglais, 5 % de chinois, de mandarin et 4,7 % de français. Pour GPT4, cela n’est pas connu. Si vous interrogez le système en anglais, il marche mieux que dans d’autres langues.

À Lire Aussi

L’IA, cette nouvelle ligne de front de nos guerres politiques

En Chine, cela va plus loin que ce qu’il se fait en Europe. C’est le gouvernement qui est le comité d’éthique pour la régulation de l’intelligence artificielle. En Europe, nous souhaitons avoir des comités d’éthique indépendants sur l’IA.

Les Etats-Unis ne veulent pas trop brider leur système et laisser une économie forte inonder le marché sans le moindre frein.

L’Europe ne veut pas forcément freiner l’IA mais souhaite que l’on respecte au moins ses valeurs.   

Emily M. Bender, Timnit Gebru et Shmargaret Shmitchell, qui travaillaient chez Google dans une équipe sur l’éthique du numérique et de l’IA, avaient publié un article sur ChatGPT et les dangers de l’IA (On the Dangers of Stochastic Parrots : Can Language Models Be Too Big?). Elles expliquaient tous les biais qu’elles avaient analysés dans le système de Google. Elles ont aussi évoqué des problèmes de discriminations. Suite à cette publication, elles ont été licenciées, remerciées. Elles révélaient que l’industriel ne cherchait pas à minimiser ces problèmes et ces erreurs de manipulation.

Il n’est donc pas du tout certain que les Etats-Unis arrivent à une régulation face à ces vulnérabilités.

Les géants du numérique ont un très fort poids de lobby et représentent une part fondamentale de l’économie.

Qui devrait donc décider de la régulation ? Ce ne doit pas être aux géants du numérique, ni aux gouvernements, mais plutôt à un comité sociétal éthique de décider. Il est nécessaire qu’il soit indépendant de ces grands groupes et du pouvoir politique.

Dans l’approche chinoise, le gouvernement est le garant de l’éthique et il décide de censurer. Une entité totalitariste décide donc en Chine.

À Lire Aussi

Lois sur le numérique : trop de « bonnes » intentions tuent les bonnes intentions

En Europe, les citoyens devraient pouvoir avoir leur mot à dire et réfléchir à l’éthique des systèmes qui vont donner les directives sur l’IA.

Un système artificiel qui incite à faire quelque chose va sans doute avoir une forte influence. Il est nécessaire de surveiller ces systèmes afin de s’assurer qu’ils ne vont pas aller trop loin dans l’incitation et vous pousser à modifier vos habitudes. Un mécanisme de surveillance doit donc intervenir. Il est nécessaire de créer des règles éthiques. Il est important d’éduquer les concepteurs pour qu’ils comprennent qu’il y a des implications sociétales à certaines de leurs décisions par le biais par exemple de choix des données.

Les données viennent des humains. Il faut donc vérifier l’éthique et être en capacité de contrôler les points faibles.

La standardisation doit imposer une attention particulière au biais, à la nécessité de réduire son impact pour l’environnement.

Dans le déploiement, il est important de vérifier aussi l’usage afin de vérifier que cela ne déclenche pas des suicides ou de l’addiction.  

Des évaluations pourraient être menées sur des systèmes qui sont sur le marché afin de vérifier les comportements.  

Il y a tout un écosystème entre ceux qui créent les programmes, ceux qui les déploient dans des applications et les utilisateurs.

Il est nécessaire et sain d’établir une co-responsabilité entre ces trois acteurs afin que l’on ne se retrouve pas dans la solution qui est celle des réseaux sociaux. Les plateformes des géants américains ont été acceptées sans qu’ils aient la responsabilité de quoi que ce soit concernant ce qu’il se passait sur leurs plateformes.

À Lire Aussi

La démocratie survivra-t-elle aux (énormes) biais de l’intelligence artificielle ?

Avec ChatGPT, nous sommes devant un outil dont on ne connaît pas les frontières. Il génère de l’incertitude, des résultats incertains. Il n’y a pas de vérifications dans la machine. C’est aux humains de faire des vérifications sur ces outils. Ni les concepteurs, ni les utilisateurs ne connaissent vraiment les limites de cette incertitude.

L’approche européenne est la plus intéressante. Il ne faut pas refaire la même erreur commise avec les réseaux sociaux. Si aux Etats-Unis, ils décident de ne pas réguler plus, c’est leur problème.

La loi européenne va permettre de tracer des lignes rouges. Mais le but n’est pas d’avoir un code moral.

Quels sont les avantages et les inconvénients de ces différents modèles ? 

Laurent Alexandre : Si on raisonne en termes de souveraineté, de puissance économique et de résultats, le modèle américain est le plus abouti puisqu’il contribue à l’épanouissement du tissu et de l’écosystème d’intelligence artificielle le plus performant au monde. Aujourd’hui, il est tout à fait clair que les Etats-Unis ont une avance importante. OpenAI a entre 6 et 18 mois d’avance sur Facebook et sur Google, qui eux-mêmes sont en avance par rapport à Baidu et Alibaba en Chine. Si l’on regarde les résultats par rapport à l’efficacité économique, le modèle américain est le plus puissant. Il est probable malgré des investissements très importants en Chine que la contrainte politique limite la possibilité de faire des intelligences artificielles aussi bonnes que ChatGPT. On imaginait une course assez équilibrée entre les Etats-Unis et la Chine mais la contrainte politique qui pèse en ce moment sur Pékin est telle qu’il est probable que les Etats-Unis vont rester, et de loin, le leader mondial de l’intelligence artificielle.

À Lire Aussi

Des experts tech du monde entier appellent à une pause dans le développement de l’IA. Mais pouvons-nous nous le permettre ?

Le président chinois a également pris des mesures très dures à l’égard des milliardaires de la Tech qui ont freiné les investissements et qui ont poussé un certain nombre de spécialistes de l’intelligence artificielle à quitter la Chine. Face à cela, Xi Jinping a fini par réorienter sa stratégie. Il a poussé Jack Ma (le fondateur d’Alibaba)  à revenir en Chine alors même qu’il s’était exilé au Canada et au Japon. Est-ce que ce mouvement plus favorable aux milliardaires de la Tech en Chine va limiter le retard de la Chine ou est-ce que les milliardaires de la technologie ont pris peur et vont hésiter à revenir et continuer à quitter la Chine ? Le pays va souffrir de la crainte de ses élites technologiques qui ont peur de finir en prison ou en résidence surveillée comme Jack Ma l’a été. La Chine va aussi souffrir de la difficulté de développer des IA aussi puissantes que l’intelligence artificielle californienne du fait de la censure politique extrêmement forte sur les données avec lesquelles on peut éduquer l’IA.

En quantité de données aujourd’hui, les intelligences artificielles chinoises sont éduquées en une seule langue et avec probablement au moins dix à vingt fois moins d’informations que les IA californiennes. Cette différence énorme explique les très mauvais résultats des LLM chinois à ce stade.  

Laurence Devillers : L’Europe a beaucoup d’avantages et assez peu d’inconvénients. Il n’est pas nécessaire d’avoir une nouvelle version de Chat-GPT dans les mains de tout le monde tous les deux mois. Cela est très perturbant. Seuls les ingénieurs des domaines concernés sont en capacité de comprendre. Très peu de gens sont capables de concevoir et d’éduquer ces programmes alors qu’ils prennent un pouvoir faramineux.

À Lire Aussi

AutoGPT : bientôt des agents autonomes d’intelligence artificielle partout ?

Le gouvernement chinois décide lui-même de mettre tous ses agents au garde-à-vous avec une note morale, qui a des influences sur la famille ou lorsque vous ne payez pas vos taxes. Il y a beaucoup d’injustice via ce système. La note morale a une influence sur vous mais également sur vos enfants et sur vos proches. Cela est un abus extrêmement dangereux.

La Chine a déployé une surveillance extrême de tout le monde, avec une vérification de ce que les gens font, un code moral, la vidéosurveillance dans les rues, plus de liberté, pas de contre-pouvoir, pas de liberté d’expression et de la répression.

Le régime chinois utilise tous ces outils. Si on ne comprend pas qu’il est nécessaire de réguler l’IA, nous risquons d’aller vers un système à la chinoise.

Il est donc extrêmement important de créer cette loi sur l’intelligence artificielle avec un certain nombre de choses qui vont être revues.

Les Etats-Unis en revanche sont impliqués dans une course à l’IA sans comprendre que derrière tout cela il y a une course pour les libertés individuelles et à la dignité, aux valeurs morales, aux droits de l’homme.

Normalement, l’Europe devrait s’allier avec les Américains pour éviter d’être en dépendance d’un gouvernement qui dirige tout. La géopolitique de tout cela est assez complexe.

A travers le Global Partnership on AI (GPAI), un travail collectif a été mené avec des représentants de différentes nations. Cela permet de s’interroger sur notre devenir avec ces outils afin d’aller vers des régulations consensuelles et organisées.

Les extrêmes ne sont pas les bonnes marches à suivre (dans le sens d’une liberté totale ou à l’inverse d’une surveillance omniprésente).

L’Europe doit absolument trouver une voie intermédiaire.      

Les principaux leaders privés du secteur, tels que Microsoft, Google ou Meta se sont lancés dans une véritable course à l’IA. Les pouvoirs publics sont-ils obligés de s’emparer du sujet et de mettre en place des réglementations ?

Laurent Alexandre : La pression publique et des chercheurs pour que les politiques s’emparent du sujet est maintenant forte. Cela a motivé la réunion à la Maison Blanche. Nous ne sommes probablement qu’au début de cette crainte des experts et demain de la société civile. Les chiffres alarmistes sur le nombre de chômeurs créés par les futures versions de ChatGPT circulent beaucoup. Il va y avoir une angoisse sociale, selon deux axes principaux : l’apparition d’un chômage de masse dans les populations dépassées par les futures versions GPT-5, GPT-6… Et un nouvel axe qui est la crainte d’un dépassement de l’homme par l’intelligence artificielle que l’on voit dans les déclarations de Geoffrey Hinton qui est le père fondateur des réseaux de neurones. Ses propos ont provoqué une vague de panique au sein de la classe politique dans un certain nombre de pays. L’ambiance actuelle qui est assez catastrophiste avec des experts très pessimistes qui sont ultra médiatisés va accélérer la prise de paroles des politiques sur le sujet.  

Laurence Devillers : Les pouvoirs publics doivent être beaucoup plus conscients de ce qu’il se passe. Le manque de scientifiques et de culture scientifique dans les gouvernements à travers le monde est dommageable.

Le président Biden a bien compris qu’il fallait s’entourer de scientifiques. Il s’appuie sur le MIT, sur Stanford, sur les grandes universités. En Europe, il n’y a pas cette même connivence. Il faut revoir cela. Les politiques comprennent que les scientifiques et les chercheurs sont en avance sur la vision, l’anticipation, le déploiement de beaucoup de technologies et de modifications de la société.

Une écoute des scientifiques est nécessaire et importante. Mais les ministres devraient s’emparer de ces réalités. Le numérique va infuser dans de très nombreux domaines, sur l’éducation, sur le sport, sur l’écologie, sur l’économie.

Il est nécessaire que les futurs membres des gouvernements aient une certaine formation au numérique. Ils sont entourés de lobbyistes qui sont là pour vendre des technologies  sans aucune vision ou alors une vision de l’éthique très particulière.

La première chose à faire concerne l’éducation. Le gouvernement n’est pas assez actif dans ce domaine. Les chercheurs ont œuvré pour qu’il y ait un CAPES d’informatique depuis dix ans. Les premiers professeurs d’informatique vont remplacer les professeurs de technologie. Ils sortent de l’école. Ils sont encore peu nombreux et ne seront pas présents sur tout le territoire.

L’éducation permettrait de mieux comprendre l’utilisation de l’IA pour le bien de tout le monde, pour faire de la créativité industrielle, pour monter une économie forte sur l’IA.

Il y aura aussi des bouleversements dans le monde du travail avec l’intelligence artificielle.

Au lieu d’inquiéter les travailleurs avec les chiffres du nombre d’emplois qui seront supprimés à cause de l’IA, il serait plus utile de former les gens aux outils qu’ils vont avoir entre les mains.

Cela nécessite encore beaucoup d’efforts de la part des gouvernements en Europe. D’autant plus que cela pose la question de la souveraineté alors que la plupart de nos données sont aux mains des Américains ou des Chinois via de nombreuses plateformes.

Les Etats-Unis ont d’ailleurs créé la Silicon Valley. Nous faisons confiance délibérément à Microsoft, à OpenAI. Soit nous sommes les vassaux de l’Amérique ou alors nous défendons nos valeurs.

Le fait d’avoir créé la loi sur l’IA en Europe fait que nous sommes écoutés en ce moment. Il faut donc avoir confiance dans la stratégie de régulation européenne. 

Les entreprises et les gouvernements peuvent-ils collaborer pour réglementer l'IA de manière responsable et efficace ?

Laurent Alexandre : Réguler l’IA est facile à dire mais n’est pas très facile à faire. On ne sait pas très bien ce qu’il faut réguler. On ne sait pas très bien ce qu’il faut freiner. Personne dans le monde n’avait vu l’extraordinaire efficacité de ChatGPT. A la fin de l’été 2022, Bill Gates, fondateur de Microsoft, qui est l’un des plus gros actionnaires d’OpenAI – ChatGPT, ne croyait pas à l’efficacité de ce modèle de réseaux de neurones, les LLM. Les principaux chercheurs pensaient que le potentiel de cette technologie était relativement modéré. Au début de l’automne, la mise au point de la version 3.5  de ChatGPT a tout changé en quelques semaines et la médiatisation à partir du 30 novembre, le jour où ChatGPT est devenu grand public, a entraîné une traînée de poudre d’enthousiasme et d’inquiétude. Il y a eu une énorme surprise des experts et de la société civile sur le potentiel de ChatGPT. Cette surprise a été encore accélérée. Et 103 jours après ChatGPT-3.5 sortait GPT-4. Le premier choc de ChatGPT a été important mais ChatGPT-4 est maintenant un outil bien meilleur.

Nous risquons d’avoir une nouvelle inquiétude lorsque la version multimodale de GPT-4 va sortir. L’intégration du son, des images et de la vidéo en entrée et en sortie dans ces modèles de neurones LLM va apporter une amélioration très importante de l’efficacité de ces intelligences artificielles mais aussi renforcer les inquiétudes sociétales et sécuritaires.

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !