Mais pourquoi ChatGPT est-il en train de péter les plombs ?<!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
International
Pendant la nuit de mercredi à jeudi, il y a eu d’importants bugs sur ChatGPT qui ont conduit à d'importantes incohérences des réponses données par le logiciel.
Pendant la nuit de mercredi à jeudi, il y a eu d’importants bugs sur ChatGPT qui ont conduit à d'importantes incohérences des réponses données par le logiciel.
©LIONEL BONAVENTURE AFP

Bugs à répétition

Des bugs à répétition sur ChatGPT dans la nuit de mercredi à jeudi nous rappellent à quel point notre connaissance dédiée à l'IA générative est aujourd'hui débutante.

Laurent Alexandre

Laurent Alexandre

Chirurgien de formation, également diplômé de Science Po, d'Hec et de l'Ena, Laurent Alexandre a fondé dans les années 1990 le site d’information Doctissimo. Il le revend en 2008 et développe DNA Vision, entreprise spécialisée dans le séquençage ADN. Auteur de La mort de la mort paru en 2011, Laurent Alexandre est un expert des bouleversements que va connaître l'humanité grâce aux progrès de la biotechnologie. 

Vous pouvez suivre Laurent Alexandre sur son compe Twitter : @dr_l_alexandre

 
Voir la bio »

Atlantico : Pendant la nuit de mercredi à jeudi, il y a eu d’importants bugs sur ChatGPT qui ont conduit à d'importantes incohérences des réponses données par le logiciel, qui a délivré des discours imaginatifs ne correspondant pas aux demandes qui ont été faites. Comment peut-on comprendre l’origine de ce bug ?

Laurent Alexandre : Son origine est relativement simple. Dans les réponses du logiciel aux questions qui lui sont posées, il y a une part d’aléatoire qui est ajoutée dans le choix des mots, pour éviter la répétition du même mot. ChatGPT a en effet vocation à trouver le mot suivant est le plus probable par rapport au précédent. À un moment donné, et pour éviter ces répétitions de mots ou d'adjectifs, il y a une petite part aléatoire qui est injectée par le logiciel dans la manière de fabriquer les phrases. Et ce système s'est emballé à la suite d'une erreur lors de la mise à jour de l'IA. 

Faudrait-il prendre ses distances avec l’IA, ou du moins garder une juste réserve après un bug comme celui-ci ou serait-ce excessif ? Rien n’exclut qu’il n’y aura des bugs plus importants dans le futur, lorsque la dépendance à l’IA sera plus grande. 

Prenons un exemple simple. Nous n'arrêtons pas d'utiliser l'électricité sous prétexte qu'il y a de temps en temps des pannes du système électrique. De même, on ne va pas arrêter d'utiliser l’intelligence artificielle sous prétexte qu'il y a des bugs qui surviennent ponctuellement. 

Quelles leçons nous rappellent ces dysfonctionnements aux conséquences planétaires ?

Je crois que ce bug nous rappelle plusieurs choses. La première, c'est la grande importance que prennent les IA aujourd’hui et celles qu’elles vont occuper d’ici les prochaines années dans tous les domaines de la vie économique et au-delà. Il est plus que probable en effet que l’IA dépasse très largement les capacités humaines dans quelques années. Ceci nous rappelle la responsabilité des propriétaires des intelligences artificielles dans la gouvernance, la régulation et la surveillance des systèmes d'IA. 

Un dernier point à souligner est que le maintien d’un système d'IA coûte très cher et nécessite une supervision permanente. Il n'est donc pas certain que de petits acteurs dans le futur ne puissent générer d’autres IA génératives, parce qu'ils n'auront probablement pas les moyens de dépister et de corriger ce type de bugs qui peuvent avoir des conséquences graves. Seuls les grands acteurs du domaine les posséderont.

Ce dysfonctionnement ne doit-il pas alerter tout de même sur les risques d’une trop grande dépendance de l’homme à l’égard de cet outil ?

Pour reprendre mon exemple de tout à l'heure, est-ce que les accidents d'avion se traduisent par une prudence dans l'utilisation de l'avion ? La réponse est non. Ce type d'accident et ce type de bug sur des systèmes aussi importants que les IA génératives vont conduire les propriétaires des IA génératives à faire davantage attention lorsqu'ils sortent une nouvelle version, comme ce fut le cas aujourd'hui. C’est grâce aussi aux erreurs de système d’IA que l’on apprendra à les optimiser.

ChatGPT est un outil dont on ne connaît pas encore parfaitement le fonctionnement. Il y a d'ailleurs des débats agités entre les universitaires américains, notamment chez les chercheurs de Wharton, Harvard et de l'université de Pennsylvanie sur les raisons pour lesquelles ChatGPT est aussi performant et sur l'existence ou non de propriétés émergentes cachées de ce système. Je rappellerai que notre connaissance dédiée à l'IA générative est aujourd'hui débutante. Parce que ces outils sont très récents, il n'y a pas de consensus sur leur avenir, sur leur faiblesse potentielle et leurs dysfonctionnements éventuels.

On ne va pas apprendre à surveiller et à réguler des outils aussi complexes que ceux-ci en l’espace de 6 mois. Il va falloir des années et des années pour apprendre à évoluer avec cet outil.

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !