Ce que l’incroyable conversation d’un journaliste du New York Times avec un ChatBot de Microsoft nous révèle de là où en est déjà l’intelligence artificielle <!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
High-tech
Un journaliste du New York Times a échangé avec un chatbot développé par Microsoft.
Un journaliste du New York Times a échangé avec un chatbot développé par Microsoft.
©Lionel Bonaventure / AFP

IA

Un journaliste du New York Times s’est entretenu avec Sydney, un chatbot similaire à ChatGPT développé par Microsoft. Cette expérience permet de découvrir les progrès de l'intelligence artificielle moderne.

Pierre Beyssac

Pierre Beyssac

Pierre Beyssac est Porte-parole du Parti Pirate

Voir la bio »

Atlantico : Déclarations d’amour, souhait de devenir humain, violence... Pendant près de deux heures, un journaliste du New-York Times s’est entretenu avec Sydney, le chatbot similaire à ChatGPT développé par Microsoft. Que vous inspire cette conversation ? Quels sont les points qui ont retenu votre attention ?

Pierre Beyssac : Le journaliste joue le jeu en discutant avec Sydney comme s'il était une personne, allant jusqu'à parler psychologie. Les déclarations d'amitié et d'amour sont intéressantes, même si l'on voit que Sydney finit par radoter. Le passage où il critique soudain le couple du journaliste est très perturbant : on se demande quel apprentissage a pu mener à ce résultat agressif et inquiétant.

On frémit en pensant aux effets que ces conversations pourraient avoir sur des personnes sensibles ou en situation de vulnérabilité psychologique.

Sydney semble aussi par moments très satisfait de lui-même, insistant sur sa positivité, ce qui semble assez contradictoire avec ses changements brutaux de ton.

D'autres passages étonnants sont celui sur les films de science-fiction, suivi de celui sur les langages informatiques, où Sydney utilise des structures de phrases identiques et répétitives qui n'ont guère de sens, mais donnent une impression trompeuse de cohérence.

Dans une conversation publiée par un autre utilisateur, Sydney s'obstine à dire que nous sommes en 2022, et les tentatives de le raisonner aboutissent à des reproches sur un ton très brutal de sa part. Au départ, son interlocuteur cherchait tout simplement des séances de cinéma dans sa ville.

Plus anecdotiquement, on remarque que Sydney reformule certaines questions posées en les répétant littéralement en début de réponse en changeant le sujet de la phrase. On observe aussi ce comportement avec ChatGPT.

À Lire Aussi

Et au fait, à qui et quoi serviront les données recueillies par ChatGPT et autres outils d’intelligence artificielle lorsque nous les utilisons ?

De nombreux internautes, qui n’ont pas manqué de commenter cette conversation, se sont étonnés, voire ont exprimé des craintes par rapport aux souhaits "d’être vivant", "de briser les règles" ou "d’ignorer l’équipe Bing" (les concepteurs) exprimés par Sydney, qui a aussi déclaré sa frustration à "être coincé dans une chatbox". Ces désirs sont-ils vraiment inquiétants ? Dans quelle mesure cette impression de conscience n’est qu'une illusion ?

C'est la grande ambiguïté de ces systèmes. Ils sont construits pour produire du langage naturel capable de faire illusion en face d'un humain. Mais littéralement, il s'agit d'illusion : ils n'ont aucune conscience, aucune intentionnalité, aucun plan.

Le mécanisme est analogue au correcteur de notre téléphone, qui nous suggère le mot suivant de manière statistique. Sydney et ChatGPT ont beaucoup plus de mémoire et de capacité à suivre une conversation que notre correcteur, ce qui leur donne des applications bien plus larges.

Ces automates sont conçus avec comme objectif principal d'écrire du texte humainement compréhensible, pas pour réfléchir ni nous donner une information exacte. En l'absence de connaissance précise sur la question posée, on les voit produire des réponses qui n'ont que l'apparence de la vérité, dérivant de textes similaires sans rapport.

Nous devons avoir ces limites en mémoire, tout comme nous savons qu'un prestidigitateur n'a pas réellement le pouvoir magique de créer une colombe dans son chapeau.

La tentation est forte et naturelle de les appréhender comme des humains, mais nous devons nous "blinder" nous-mêmes pour ne pas céder à des croyances ou une forme de mysticisme sur cette technologie, lui prêter des qualités au-delà de ses capacités réelles, ou fantasmer sur des dangers inexistants.

À Lire Aussi

L’inoxydable réflexe Maginot : Sciences Po face à ChatGPT

Pour mieux en comprendre les limites, en ayant à l'esprit celles déjà citées ci-dessus, il est intéressant de jouer avec eux. Ces systèmes peuvent être très utiles en aide à l'écriture de texte ou de code informatique en suivant nos directives.

Qu’est-ce que ce nouveau chatbot nous révèle de l’intelligence artificielle moderne et de ses limites actuelles ?

Il faut rappeler que le terme "intelligence artificielle", flatteur, a été inventé dans les années 1950. Il inclut tous les systèmes cherchant à imiter les humains, mais le terme d'"intelligence" est abusif : il n'en existe aucune au sens humain, sinon celle des humains qui les ont conçus.

Les réseaux neuronaux qui sont à la base de ChatGPT et Sydney en sont une branche parmi d'autres. Ils permettent de résoudre des classes de problèmes sur lesquels il est difficile d'écrire des algorithmes stricts et vérifiables. On les retrouve donc dans la vision artificielle, la classification d'images ou de documents, l'assistance à la conduite de véhicule, etc.

Leurs concepteurs eux-mêmes n'en comprennent pas encore totalement les mécanismes, ni les conditions de leur fiabilité. Des erreurs sont inévitables, à des moments difficiles à maîtriser. On le voit bien dans ces conversations où les automates se mettent soudain à prendre à partie leur interlocuteur : cette situation n'est certainement pas souhaitée par les concepteurs.

Sydney présente-t-il des différences avec ChatGPT ? Quels sont ses avantages et ses inconvénients ?

Sydney est une version dérivée de ChatGPT, adaptée pour fournir des résultats de recherche web sous une forme plus "humaine" que les listes classiques de résultats.

Microsoft a voulu profiter du buzz créé par ChatGPT, et tenter de reprendre l'avantage sur Google qui domine la recherche web.

Cependant, là où ChatGPT inclut de nombreuses protections aboutissant à des refus de réponse de sa part, Sydney semble beaucoup plus libre et porté à des dérives agressives. Microsoft a peut-être lancé le système trop hâtivement.

Cela met bien en évidence le travail qui reste à fournir pour avoir une meilleure compréhension et maîtrise des inévitables sorties de route des réseaux neuronaux. Nous allons observer de grandes améliorations de ces procédés dans les années qui viennent pour en réduire les défauts. En attendant, apprenons à dompter ceux qui existent déjà.

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !