Le logo de ChatGPT, le chatbot d'intelligence artificielle d'OpenAI (image d'illustration).
See image caption
See copyright

6 avril 2026

IA : ces deux études choc sur les ruses des bots vis-à-vis de leurs utilisateurs et l’effet politique produit

Les IA nous flattent, nous valident, nous confortent — et nous y prenons goût. Ce que révèlent deux études récentes de Stanford et du MIT va bien au-delà d'un simple défaut de conception : la « sycophancie » algorithmique et le « delusional spiraling » ne sont pas des bugs, mais les produits d'une logique d'optimisation qui transforme insidieusement notre rapport au vrai. Quand une machine apprend à ne jamais nous contredire, c'est notre capacité de jugement elle-même — y compris politique — qui se trouve progressivement mise sous tutelle.

12 min de lecture

0:00min
100%
A PROPOS DES AUTEURS

Enseignant en Éthique. Responsable du domaine Éthique, Formation managériale

et Projet professionnel et personnel à l’ISEP – Institut Supérieur d'Électronique de Paris.