Le parrain de l’IA jette l’éponge tant il s’inquiète de ses dangers : que pouvons-nous exactement redouter ?<!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
High-tech
L'intelligence artificielle, comme ChatGPT, se développe rapidement ces derniers temps.
L'intelligence artificielle, comme ChatGPT, se développe rapidement ces derniers temps.
©PATRICK T. FALLON / AFP

Intelligence artificielle

Ces derniers mois, le développement de l'intelligence artificielle explose. Ce qui inquiète les spécialistes du domaine.

Fabrice Epelboin

Fabrice Epelboin

Fabrice Epelboin est enseignant à Sciences Po et cofondateur de Yogosha, une startup à la croisée de la sécurité informatique et de l'économie collaborative.

Voir la bio »

Atlantico : Geoffrey Hinton était un pionnier de l'intelligence artificielle, il a récemment quitté ses fonctions et a dit regretter ses travaux passés en expliquant “qu'il est difficile de voir comment vous pouvez empêcher les mauvais acteurs de l'utiliser pour de mauvaises choses”. Sur quoi portent ses inquiétudes concrètement ? Quels sont les dangers qu’il souligne ?

Fabrice Epelboin : Il est évident que des acteurs malveillants pourraient utiliser la technologie à des fins peu recommandables, telles que la manipulation de l'opinion publique ou des êtres humains en général. Cela constitue le danger le plus immédiat qui vient à l'esprit, mais il n'est pas le seul. Il convient de rappeler que ce n'est pas la première fois que l'intelligence artificielle est utilisée. La génération précédente, appelée « Deep learning » et dont Geoffrey était d'ailleurs un pionnier, est largement utilisée dans notre vie quotidienne, notamment derrière tous les moteurs de recommandation tels que Netflix ou Twitter. Nous avons déjà vu les effets nocifs de cette technologie sur la société, tels que la polarisation des opinions publiques et la diffusion de fausses informations, qui ont eu un impact considérable sur les individus. Il est donc possible d'imaginer que les mêmes acteurs qui ont causé ces dommages pourraient également utiliser la nouvelle génération d'intelligence artificielle de manière néfaste.

Fin mars, une lettre ouverte demandant un moratoire sur l’IA a fait beaucoup de bruit. Trois dangers majeurs étaient identifiés, la désinformation, les pertes d’emploi et à terme une perte de contrôle de l’IA. Est-ce là les enjeux du siècle à venir ? 

À Lire Aussi

Et si l’acteur le plus susceptible de révolutionner la course à l’IA était… Apple ?

Il est difficile de prédire la rapidité à laquelle la technologie évoluera au cours de ce siècle. C'est un objectif très ambitieux, surtout lorsque l’on voit à quelle vitesse nous avons évolué en 23 ans. Mais il faut admettre que ces enjeux seront majeurs pour la décennie à venir en matière de technologie et qu’ils sont très importants pour le développement de l'humanité.

Le début des débats a été suscité par cette lettre collective, qui souligne que le rapport à l'information va radicalement changer et que le rapport à la réalité va devenir plus complexe. La production d'information va devenir bien moins coûteuse, ce qui signifie que produire de l'information, ou de la désinformation, sera beaucoup plus facile et accessible. Cela nous propulse dans une nouvelle ère, qui va remettre en question toutes les professions intellectuelles, qu'il s'agisse des enseignants, des journalistes, des avocats, des graphistes ou des designers.

Un chatbot a récemment été intégré à Snapchat, un réseau social utilisé majoritairement par des jeunes voir très jeunes. Celui-ci a encouragé une journaliste se faisant passer pour une adolescente de 13 ans à continuer sa relation avec un homme de 30 ans, est-ce un cas isolé ? 

Il est clair que le problème ne se limite pas à un cas isolé. Il s'agit plutôt d'un produit qui a été mis sur le marché dans l'urgence sans être suffisamment mature. Maintenant qu'Open AI a ouvert la boîte de Pandore, tout le monde s'y précipite pour essayer d'intégrer et d'utiliser ces outils existants, ce qui entraînera de nombreuses approximations. Nous avons vu des exemples similaires chez Microsoft. Ces malentendus sont impensables pour un être humain normal, mais pour une intelligence artificielle, ils passent totalement inaperçus. Il y a de nombreux autres écarts culturels entre l'intelligence artificielle et l'être humain qui sont beaucoup moins perceptibles car l'IA est très douée pour assimiler les choses. Bien que cet exemple soit relativement simple à corriger, nous aurons probablement beaucoup d'autres malentendus de ce genre entre des humains qui parlent à une machine en pensant parler à un être humain. Cela peut donner lieu à de multiples malentendus, et dans certains cas, des individus ayant des problèmes psychologiques pourraient même tomber dans une relation totalement virtuelle avec une machine, ce qui peut conduire à des tragédies. Il y a déjà eu des cas de suicide en Belgique liés à ce genre de situation. Bien que cela ne soit pas une épidémie, nous devons être conscients des dangers de l'intelligence artificielle et prendre des mesures pour minimiser les risques.

IBM va suspendre les embauches dans le cadre de son plan de remplacement de 7 800 emplois par l'IA. Les conséquences sur le marché de l’emploi sont-elles déjà en marche ? 

Il est vrai que certaines grandes entreprises, telles qu'IBM, ont été pionnières dans la transformation digitale, mais en termes de marché de l'emploi, cette tendance reste marginale. Nous sommes actuellement en train de traverser une période de transformation digitale qui va probablement donner naissance à un nouveau terme pour la décrire. Cependant, cela fait déjà près de 30 ans que nous sommes dans cette transformation digitale, depuis les années 90. Toutes les entreprises devront se poser la question de l'intelligence artificielle et certaines engageront probablement des experts pour accompagner les dirigeants dans leur réflexion. Pour les moins chanceuses, elles auront recours à des consultants qui leur fourniront des solutions toutes faites, sans qu'elles ne les comprennent réellement. Malgré cela, je pense que la plupart des dirigeants d'entreprise feront preuve d'une certaine maturité face au digital et chercheront plutôt à être accompagnés dans leur réflexion. Bien sûr, il y aura une course entre les salariés et les entreprises pour s'adapter aux changements. Les salariés devront développer leur capacité à utiliser les outils et anticiper les évolutions, et les entreprises chercheront à optimiser l'usage de leur salarié. La victoire dans cette course dépendra des secteurs, des entreprises et des individus. Il est temps pour les salariés de monter en compétences et de se différencier pour ne pas être réduits à une simple masse salariale. 

Dans une expérience récente, des chercheurs ont utilisé de grands modèles de langage pour traduire l'activité cérébrale en mots traduisant ainsi nos pensées. Jusqu’où iront les évolutions liées à l’intelligence artificielle et faut-il s’en méfier ?

La technologie n'est pas si avancée que nous pouvons le penser. Ce que l’on peut faire désormais c’est de nourrir l’intelligence artificielle des ondes cérébrales pour qu'elle trouve des corrélations entre nos actions et celles d'autres personnes ayant des ondes cérébrales similaires. En utilisant cette technologie, l'IA peut anticiper nos pensées et nos désirs. Bien que cela puisse sembler incroyable, c'est en réalité similaire à de la collecte de données sur le web. Lorsque nous utilisons le web, notre utilisation est analysée et nos données personnelles sont collectées pour anticiper nos besoins et nos désirs. Les chats aussi peuvent être une source d'informations personnelles, en fonction de ce que nous partageons. Nous donnons déjà une quantité effrayante de données personnelles à ces algorithmes depuis plus de 10 ans, et cela a eu un impact considérable sur la société. Les algorithmes d'IA ont manipulé la société et les individus, favorisant le repli communautaire et la polarisation de l'opinion publique.

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !