Intelligence artificielle : quand les Chatbots hallucinent <!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
High-tech
Logiciel d'intelligence artificielle ChatGPT.
Logiciel d'intelligence artificielle ChatGPT.
©MARCO BERTORELLO / AFP

Le futur est proche

Le logiciel d'intelligence artificielle ChatGPT, lancé récemment et qui connait déjà de nouvelles versions, présente par moment quelques hallucinations dans ses réponses.

Raja Chatila

Raja Chatila

Raja Chatila est professeur émérite à la Sorbonne Université. Il a été directeur de l'Institut des systèmes intelligents et de la robotique (ISIR) et du laboratoire d'excellence "SMART" sur l'interaction homme-machine. Il a été directeur du LAAS-CNRS, à Toulouse (France), de 2007 à 2010. Ses recherches couvrent plusieurs aspects de la robotique : navigation et SLAM, planification et contrôle des mouvements, architectures cognitives et de contrôle, interaction homme-robot, apprentissage automatique et éthique. Il travaille sur des projets de robotique dans les domaines de la robotique de service, de terrain, aérienne et spatiale. Il est l'auteur de plus de 170 publications internationales sur ces sujets. Projets actuels et récents : HumanE AI Net, le réseau d'excellence des centres d'IA en Europe, AI4EU, qui promeut l'IA en Europe, AVETHICS, sur l'éthique des décisions concernant les véhicules automatisés, Roboergosum, sur la conscience de soi des robots, et Spencer, sur l'interaction homme-robot dans les environnements peuplés. Il a été président de l'IEEE Robotics and Automation Society pour la période 2014-2015. Il est coprésident du groupe de travail sur l'IA responsable au sein du Partenariat mondial sur l'IA (GPAI) et membre du Comité national français de pilotage pour l'éthique numérique (CNPEN). Il préside l'initiative mondiale de l'IEEE sur l'éthique des systèmes autonomes et intelligents. Il a été membre du groupe d'experts de haut niveau en IA de la Commission européenne (HLEG-AI). Distinctions : IEEE Fellow, IEEE Pioneer Award in Robotics and Automation, Docteur honoraire de l'Université d'Örebro (Suède).

Voir la bio »

Atlantico : Selon ChatGPT, le NYT a publié le 10 juillet 1956, dans un article intitulé « Machines Will Be Capable of Learning, Solving Problems, Scientists Predict » à propos d'une conférence fondamentale au Dartmouth College. La conférence était réelle mais pas l’article, comment est-ce possible que Chat GPT invente ce genre de faits ? 

Raja Chatila : Il est important de comprendre comment fonctionnent les systèmes d'intelligence artificielle basés sur l'apprentissage de données. Tout d'abord, ces systèmes analysent une grande quantité de données disponibles sur Internet pour construire un modèle de langage. Ce modèle est construit en corrélation avec des concepts, des mots et des catégories de données trouvées ensemble dans un corpus de langage sur lequel le système a été formé. Ce modèle ne comprend pas le contenu réel des données, mais plutôt les proximités de données qui ont été corrélées dans le corpus d'apprentissage. Par conséquent, lorsque vous posez une question au système, il cherche dans son modèle les mots ou les éléments qui correspondent à votre demande, sans comprendre la signification ou la véracité de ce qui est recherché. Le système ne vérifie pas les faits ou les assertions des proximités de texte qu'il a appris. En fin de compte, il répondra simplement en fonction des corrélations qu'il a trouvées dans son modèle, produisant un mélange de vrai et de faux indiscernable. Le terme "hallucination" ne convient pas à ce système car il s'appuie sur ses corrélations pour répondre et ne crée pas d'illusion à partir d'une perception ou d'un état mental.

À Lire Aussi

Le parrain de l’IA jette l’éponge tant il s’inquiète de ses dangers : que pouvons-nous exactement redouter ?

Peut-on craindre que d’autres outils que des Intelligences artificielles génératives en viennent à modifier certaines informations ? Si oui quels en seraient les dangers ?

Les systèmes d'apprentissage profond sont basés sur des éléments de corrélation, ce qui inclut les systèmes génératifs d'IA. Contrairement à un chatbot de la SNCF ou d'une entreprise, ces systèmes ne se contentent pas de chercher des réponses déjà existantes dans une base de données. Ils construisent plutôt le texte qu'ils produisent en utilisant des corrélations entre des éléments. Cependant, cela signifie que les réponses qu'ils fournissent ne sont pas basées sur une information vérifiée et réelle, mais plutôt sur des corrélations statistiques. Par exemple, un système d'apprentissage profond utilisé pour reconnaître des images peut confondre un chat avec un chien en se basant sur des corrélations entre les pixels de l'image. Ce principe de corrélation est inhérent à la démarche de l'apprentissage profond et peut conduire à des erreurs patentes. Les systèmes génératifs basés sur des corrélations peuvent également associer des éléments qui ne devraient pas l'être. Une expérience a montré que même avec une biographie comprenant des éléments vrais et des éléments associés, un système génératif n'était pas en mesure de distinguer le vrai du faux.

Il s'agit d'un problème fondamental car il concerne la véracité des informations échangées dans un chat en ligne. Les textes qui y sont postés peuvent être invérifiables et il est difficile de savoir s'ils sont véridiques ou non. Si je veux vérifier ce qui m'a été dit, cela me prendra du temps et je devrai faire mes propres recherches sur Internet, sans même savoir ce que je cherche exactement. Si je prends ces informations pour argent comptant, je risque de croire des choses qui sont fausses, et même si vous me donnez une réponse différente, nous pouvons avoir des croyances différentes sur le même sujet. Il y a donc un risque de confusion entre le vrai et le faux, ce qui peut donner lieu à des interprétations différentes selon les individus. Si nous n'avons pas de socle commun sur lequel nous pouvons nous entendre, il sera difficile de discuter et de vivre en société. En somme, il y a un problème de communication et de confiance dans les informations échangées en ligne.

Est-ce qu'il est possible de corriger à court terme les hallucinations ?

À mon avis, il n'est pas possible de supprimer complètement les effets négatifs de la désinformation en ligne. Cependant, il est possible de prendre certaines mesures, telles que la vérification des sources. Par exemple, les moteurs de recherche tels que Bing de Microsoft intègrent des sources fiables pour aider les utilisateurs à trouver des informations vérifiées. Bien que cela puisse réduire les effets de la désinformation, cela reste limité en raison du nombre limité de sources mentionnées. Si le système était connecté à Internet, il pourrait trouver des articles en temps réel et ainsi améliorer la fiabilité de l'information trouvée. Cependant, il est peu probable que cela élimine complètement la désinformation.

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !