La course à l’IA générale est lancée, avec ou sans moratoire<!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
Tribunes
La course à l’IA générale est lancée, avec ou sans moratoire
©AFP/Lionel Bonaventure

La course est lancée

L’arrivée tonitruante de ChatGPT (GPT3.5) développé par OpenAI fin 2022, puis de GPT4 en mars 2023 [1] et plus généralement des LLM (Large Language Models) multimodaux marquent l’histoire de l’Intelligence Artificielle et du cyberespace. Cet évènement technologique de portée mondiale constitue la première étape vers une Intelligence Artificielle Générale (AGI, Artificial General Intelligence).

Thierry Berthier

Thierry Berthier

Thierry Berthier est Maître de Conférences en mathématiques à l'Université de Limoges et enseigne dans un département informatique. Il est chercheur au sein de la Chaire de cybersécurité & cyberdéfense Saint-Cyr – Thales -Sogeti et est membre de l'Institut Fredrik Bull.

Voir la bio »

1 - Ne confondons pas AGI et IA Forte 

Il est important de définir préliminairement le terme d’AGI pour ne pas introduire d’ambiguïté et le confondre avec celui, infiniment plus hypothétique, d’IA forte. Dans une dynamique de convergence globale des technologies, l’IA forte correspond à l’émergence théorique d’une IA capable de répondre sans se tromper à toutes les questions, de résoudre tous les problèmes simples ou complexes, capable de se poser de nouveaux problèmes (non humains), capable d’évoluer en toute autonomie et dotée d’une forme de « conscience artificielle ». Ce point asymptotique est associé au concept de Singularité Technologique, à partir duquel, l’accélération du progrès technologique s’emballe sous l’effet de l’IA forte pour résoudre l’ensemble des limitations humaines, y-compris les maladies et la mort. L’IA forte est un concept métaphysique. On notera que la notion de Singularité Technologique est assez voisine du « Temps du Kronos » décrit dans la mythologie Grecque comme l’ère d’Héphaïstos. Il s’agit d’un temps durant lequel les machines et automates créées par l’artisan divin Héphaïstos, forgeron de robots et de mécanismes complexes, remplacent l’homme partout et lui restituent sa liberté originelle. Le concept d’IA forte est donc très proche dans sa description des machines divines du temps du Kronos. 

En 2023, nous parlons d’IA générale (AGI) dans le sens suivant : une IA générale est un modèle ou une composition de modèles, capable de traiter, avec un niveau de performance optimal au regard de la connaissance et de l’expertise humaine, toute question formulée dans un langage humain, à partir d’un texte, d’un code informatique, d’un son, d’une image ou d’une vidéo. L’IA générale est un peu plus que la simple juxtaposition d’AI verticales, très performantes, hyperspécialisées sur une unique fonction (comme le jeu de Go par exemple). Il s’agit bien d’un modèle global au moins aussi performant que le meilleur expert humain dans chaque segment de connaissance. Nous disposons déjà de modèles d’IA spécialisées sur une fonction, plus performantes que le meilleur des experts humains du domaine. L’AGI généralise horizontalement l’hyper performance verticale. On est donc très loin du concept métaphysique d’IA Forte associée à une forme de « conscience ». 

2 – La course à l’AGI est lancée et personne ne l’arrêtera  

Les premières étapes de cette course à l’AGI s’appuient sur les grands modèles de langages multimodaux de type GPT4, GPT5 et les modèles concurrents. Il faudra certainement compléter les futurs modèles pour qu’ils évitent les erreurs à la marge, et pour qu’ils produisent des réponses toujours optimales face au meilleur des experts humains sur chaque requête, dans chaque segment de connaissance. Atteindre le niveau d’expertise « surhumaine » dans chaque segment est une étape complexe car il faut disposer des bonnes métriques permettant de « benchmarker » l’expertise. Les technologies actuelles Transformers, LLM, seront-elles suffisantes pour cela ? le volume des données disponibles pour l’entrainement de ces modèles est-il suffisant pour satisfaire l’objectif d’optimalité ? Aujourd’hui GPT4 n’a pas encore atteint ce stade de maturité cognitive mais s’en approche dans certains domaines. Lorsque cette étape d’optimalité horizontale sera atteinte, alors nous pourrons parler d’IA générale (AGI). 

L’arrivée du modèle multimodal GPT4 et des modèles concurrents nous montre que la course à l’AGI est bien lancée. Rien ni personne ne pourra l’arrêter. Les compétiteurs « mauvais perdants », les réfractaires ou retardataires de la course, les Saintes-Nitouche du principe de précaution (la fée  PrécautIA), ou du principe de régulation (la fée RégulIA) peuvent multiplier les mises en garde, les pétitions et les demandes de moratoire sur l’IA. Ils ne parviendront pas à freiner la dynamique du développement d’IA de plus en plus générales. L’économiste, statisticien, polytechnicien Alfred Sauvy avait un bon mot pour décrire la puissance de la course technologique, comme un principe de systémique humaine : « Despote conquérant, le progrès technique ne souffre pas l'arrêt. Tout ralentissement équivalant à un recul, l'humanité est condamnée au progrès à perpétuité. (dans « Théorie générale de la population ») ». Plus le progrès technologique est disruptif, plus ses effets sont généraux et moins il est contrôlable ou régulable. 

3 – Les motivations et le profil des demandeurs d’une pause dans le développement des LLM 

Fidèle à ses principes, le « Future of Life Institute » accompagné par d’autres entités, a lancé une pétition mondiale pour demander un moratoire technologique de six mois sur le développement des IA génératives. Cette pause de six mois permettrait, selon le FHI, de réfléchir plus sereinement à l’arrivée de l’AGI dans un monde qui n’est pas prêt à la recevoir. Elon Musk et quelques centaines de scientifiques se sont associés à cette demande. Notons qu’en 2018, le FHI était déjà à l’origine de la demande d’un moratoire et d’une interdiction des robots armés et systèmes armés autonomes. La pétition mondiale avait réuni des milliers de signatures de personnalités, de scientifiques engagés, d’intellectuels inquiets par la vitesse de développement de l’IA et de la robotique au service de la guerre. Cinq ans plus tard, les systèmes armés semi-autonomes sont développés partout. Ils transforment l’art de la guerre. Les doctrines militaires évoluent en fonction de ces nouvelles armes, sans pause ni moratoire. Aujourd’hui, le FHI et ses cosignataires reproduisent la démarche et suggèrent une pause de six mois dans le développement des LLM multimodaux. Interrogeons cette demande et ce qui la motive. Il existe au moins quatre catégories de profils signataires du moratoire LLM : 

Catégorie 1 : celle des « mauvais joueurs ». En sortant successivement GPT3.5 et GPT4, OpenAI a pris de court Google, Meta et d’autres géants du numérique qui, techniquement, auraient pu être les premier à le faire, mais qui ne l’ont pas fait assez tôt. Rappelons que Google a été l’origine du premier article sur l’architecture Transformers en 2017 [2] . En caricaturant, Google l’a imaginé, OpenAI l’a fait, plus vite. META est dans la même situation inconfortable et doit revenir dans la course aux LLM surtout après le fiasco du Metaverse. Certains retardataires peuvent développer quelques réflexes de mauvais joueurs en demandant une pause de six mois. Elon Musk peut objectivement faire partie de cette première catégorie mais également des suivantes.  

Catégorie 2 : Les adeptes de la fée PrécautIA. On y trouve différents profils, des scientifiques qui priorisent le principe de précaution, des non scientifiques qui confondent AGI et IA forte par manque de culture scientifique, des passionnés qui ne font plus la différence entre l’état de l’art d’une technologie, ses capacités fonctionnelles à l’instant t et les hypothèses qui relèvent de la science-fiction.

Catégorie 3 : Les adeptes de la fée RégulIA.  Il s’agit de profils variés, des experts, des scientifiques européens qui priorisent par principe l’encadrement strict de l’innovation et du progrès : A défaut d’avoir produit GPT4, déployons une architecture de régulation pour l’encadrer. On peut voir cela comme une posture idéologique de revanche. Nous ne l’avons pas fait mais nous allons l’encadrer pour garder la main sur l’entité. Cette catégorie rejoint alors celle des mauvais perdants.  

Catégorie 4 : Celle des « technophobes effondristes ». Notre planète brule, nous n’avons pas besoin de LLM incontrôlables qui consomment injustement les ressources d’un monde qui s’effondre. Ce sont les mêmes qui refusent les bassines, les centrales nucléaires, la 5G, la robotique, l’IA et qui signent, avec cohérence, tous les moratoires. 

4 – Avec ou sans moratoire, quels sont les risques pour la France ? 

C’est sous le prisme géopolitique des souverainetés industrielles, numériques et cognitives qu’il faut prendre en compte cette course à l’AGI et les risques associés. Nous avons objectivement raté un certain nombre de trains technologiques (moteurs de recherche, cloud, émergence de géants du numérique). Les deux prochains trains à ne pas rater sont ceux de l’AGI, de la robotique, et de leur convergence. Si nous restons sur le quai, occupés à compter les wagons ou à les freiner, nous perdrons toute indépendance dans un monde partitionné en deux blocs, chinois et américains. Le prix du ticket à l’entrée pour développer des LLM du niveau de GPT4 ou du prochain GPT5 est d’ores et déjà vertigineux. Avons-nous les moyens de nos ambitions ? Notre industrie numérique va devoir s’adapter au tsunami en tirant parti de la puissance des futures IA générales tout en limitant les dépendances externes. C’est un défi presque insurmontable pour l’Europe. Nous mesurons encore très mal l’impact social des LLM sur l’emploi et l’économie. Certaines études prévoient la suppression de centaines de millions de postes à l’échelle mondiale. Nous sommes à priori très loin des équilibres « Schumpeteriens » de destruction créatrice. L’AGI bouleverse tous les consensus et tous les arbitrages sociaux. En France, notre réforme des retraites va nous faire travailler deux semestres supplémentaires mais GPTn risque fort de nous faire travailler quarante ans de moins en remplaçant l’humain partout où cela est rentable. L’intégration de l’AGI au cœur des systèmes robotisés va impacter l’ensemble des activités humaines, de la production, aux services, de l’expertise à l’industrie, de l’éducation à la politique. L’économie de la connaissance prend tout son sens avec l’arrivée prochaine des l’AGI. Elle nous rapproche du temps de Kronos. 

Liens et références

[1] Microsoft Research -« Sparks of Artificial General Intelligence: Early experiments with GPT-4 » - Sébastien Bubeck, Varun Chandrasekaran, Ronen Eldan, Johannes Gehrke, Eric Horvitz, Ece Kamar, Peter Lee, Yin Tat Lee, Yuanzhi Li, Scott Lundberg, Harsha Nori, Hamid Palangi, Marco Tulio Ribeiro, Yi Zhang -  https://arxiv.org/abs/2303.12712

[2] Google research -« Attention Is All You Need » Google research, https://arxiv.org/abs/1706.03762  et  https://arxiv.org/pdf/1706.03762.pdf

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !