Voilà pourquoi l’intelligence artificielle n’échappera (sans doute) jamais à l’humanité même si nous pourrons parfois en avoir l’impression<!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
High-tech
Les logos de ChatGPT et d'OpenAI.
Les logos de ChatGPT et d'OpenAI.
©LIONEL BONAVENTURE / AFP

Menace réelle de l'IA ?

Des experts et des chercheurs ont signé un appel à une « pause d’au moins six mois » dans la recherche sur les intelligences artificielles (IA) plus puissantes que ChatGPT-4. Cette pause devrait servir à élaborer de meilleurs garde-fous pour ces logiciels.

Aurélie Jean

Aurélie Jean est Docteure en Sciences, Entrepreneure et Auteure. 

Voir la bio »

Atlantico : "L'IA doit faire une pause", c’est l’avis d’un millier d’experts de la tech dont Elon Musk qui ont publiié une lettre ouverte sur le site du Futur of life institute appelant à un moratoire. Les justifications de ces personnalités vous paraissent-elles légitimes ? Pouvons-nous nous le permettre ?

Aurélie Jean : Je ne pense pas que ce soit une pause dont on a besoin mais tout simplement de bien faire les choses, d’avoir une gouvernance (mot utilisé dans la lettre) algorithmique d’excellence. Ce qui est loin d’être le cas chez tous les acteurs. Cela suppose entre autres de réfléchir en profondeur au problème à résoudre, de tester correctement les algorithmes, de leur appliquer des calculs d’explicabilité à chaque étape de leur construction afin de maîtriser et d’extraire au mieux leur logique de fonctionnement, mais aussi de transmettre des informations pertinentes à l’utilisateur sur leur fonctionnement. Cela implique aussi de réfléchir au mal qu’on peut faire, même à une minorité d’individus ou de toute vie sur cette terre, ou encore aux conséquences climatiques en termes de consommation énergétique nécessaire pour construire et faire fonctionner l’algorithme. En pratique, quand vous revoyez vos méthodes de conception algorithmique, vous subissez inévitablement un ralentissement, parfois très intense, de votre vitesse de développement. C’est ce vers quoi il faut tendre. Concernant les signataires, n’oublions pas que Elon Musk a été la première personne à financer le Future of Life Institute à l’initiative de cette lettre. 

Il est établi que l’IA va créer des bouleversements importants social, sociétal, économique, faut-il prendre, malgré tout, un temps de réflexion, notamment éthique, sur l’ampleur de ces derniers ?

L’éthique ne devrait pas être un moment d’interruption mais une séquence continue de réflexions, d’interrogations et de discussions sur des sujets fondamentaux. Par exemple, penser aux pires scénarios possibles avant de déployer une technologie algorithmique doit faire partie des étapes d’une gouvernance d’excellence durant lesquelles on se pose l’instant de quelques heures voire de quelques jours dans les cas les plus complexes. Décider de s'arrêter six mois pour faire une pause globale envoie un mauvais signal aux individus et aux États : l’idée qu’aucun acteur scientifique et technologique ne s’intéressait à ces sujets avant. 

Dans un récent billet de blog cité dans la lettre, l'OpenAI a mis en garde contre les risques liés au développement inconsidéré d'une intelligence artificielle générale (AGI) : « Une superintelligence AGI mal alignée pourrait causer de graves dommages au monde ; un régime autocratique doté d'une superintelligence décisive pourrait également le faire. » Faut-il craindre le développement rapide, et potentiellement incontrôlable d’une IA « forte » ?

Pour répondre à cette question, il faut expliquer ce qu’est l’intelligence. Selon la théorie triarchique de Robert Sternberg, on peut décomposer l’intelligence humaine en trois composantes : l’intelligence analytique, l’intelligence créative (et émotionnelle) et l’intelligence pratique (entre autres le bon sens). Alors que la machine maitrise l’intelligence analytique (la base du langage binaire), elle ne fait que simuler les deux autres composantes, créative et pratique. Cela étant dit, l’IA forte qui suppose la maîtrise de l'intelligence générale et donc de ces trois composantes, ne peut pas exister de façon effective, mais on aura l’impression qu’elle existe (de manière apparente donc) à travers des outils algorithmiques toujours plus efficaces. C’est ce qu’il se passe quand des individus ont l’impression d’échanger avec un être avec un sens critique et pratique quand ils utilisent ChatGPT. 

Que ce soit pour le développement du nucléaire ou de l’accélérateur à particule, certains appelaient à la prudence au vu des risques, par exemple de créer un trou noir qui aspirerait le globe. Est-ce que des craintes similaires sur le danger de l’AI peuvent aussi légitimement être exprimées ?

Comme dans le cas de nombreuses révolutions scientifiques, l’IA présente des bénéfices et des menaces pour l’humanité. Mais la bonne nouvelle est qu’il existe des solutions pour bien faire les choses, en concevant de manière responsable les outils, en communiquant davantage auprès des utilisateurs, mais aussi à travers des régulations qui viennent protéger les droits fondamentaux des citoyens mais aussi la planète, tout en soutenant l’innovation. Les nombreux scandales et controverses de ces dernières années nous montrent à quel point les acteurs manquent de gouvernance algorithmique et d’éthique. 

Que faire face à la déferlante de l’IA pour ne pas se laisser submerger par ses conséquences ?

Il faut des réglementations bien faites (ce sur quoi l’Europe et les USA travaillent) afin d’imposer à tous les acteurs de concevoir correctement les outils, en les obligeant à appliquer sur leurs algorithmes les méthodes de calcul d’explicabilité à toutes les étapes : des jeux données utilisés jusqu’à l’algorithme en cours d'utilisation. Il faut former de toute urgence les prochaines générations de leaders économiques et politiques afin qu’ils prennent les bonnes décisions et qu’ils développent des visions pragmatiques et pratiques pour les pays. Enfin, il faut former dans les grandes lignes toutes les générations d’élèves et d’étudiants, de la maternelle aux études supérieures, à PENSER dans un monde algorithmisé. Le chemin parait difficile mais il n’est pas impossible.

Aurélie Jean publie avec Amanda Sthers "Résistance 2050", le 5 avril, aux éditions de L'Observatoire 

Liens vers la boutique : cliquez ICI et ICI

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !