Intelligence artificielle : Google met en congé forcé un ingénieur pour avoir affirmé que le chatbot du groupe avait une intelligence propre. Mais pourquoi ? <!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
High-tech
Le robot humanoïde Engineered Arts Ameca doté d'une intelligence artificielle, lors du Consumer Electronics Show (CES) le 5 janvier 2022 à Las Vegas.
Le robot humanoïde Engineered Arts Ameca doté d'une intelligence artificielle, lors du Consumer Electronics Show (CES) le 5 janvier 2022 à Las Vegas.
©PATRICK T. FALLON / AFP

LaMDA

La raison officielle invoquée est celle de la rupture de confidentialité. Mais Google a-t-il poussé son ingénieur sur la touche car cette thèse paraît absurde ou parce qu’elle serait trop vraie… et effrayante ?

Thierry Berthier

Thierry Berthier

Thierry Berthier est Maître de Conférences en mathématiques à l'Université de Limoges et enseigne dans un département informatique. Il est chercheur au sein de la Chaire de cybersécurité & cyberdéfense Saint-Cyr – Thales -Sogeti et est membre de l'Institut Fredrik Bull.

Voir la bio »

Atlantico : Google a suspendu un ingénieur, Blake Lemoine, qui affirmait qu'un chatbot d'intelligence artificielle développé par l'entreprise était devenu sensible. Google a indiqué à cet ingénieur qu'il avait violé la politique de confidentialité de l'entreprise. La firme a également rejeté ses allégations. Blake Lemoine enflamme le débat sur les réseaux sociaux sur les avancées de l'intelligence artificielle. Que sait-on de ce chatbot LaMDA ? Quelle était la technologie en question ? Peut-on vraiment croire la justification et le « démenti » de Google ?

Thierry Berthier : Présenté par Google en 2021, le système LaMDA (Language Model for Dialogue Applications) est un modèle de langage capable d’engendrer des chatbots (robots conversationnels) qui peuvent ensuite être utilisés dans des outils comme Google Assistant ou sur des centres d’appels automatisés. Les compétences conversationnelles de LaMDA ont mis des années à être développées par Google. Comme de nombreux modèles de langage récents, notamment BERT et GPT-3, LaMDA repose sur Transformer, une architecture open source de réseau de neurones inventée par Google Research en 2017. Cette architecture produit un modèle qui peut être entraîné à lire des mots, des phrases ou des paragraphes entiers en identifiant précisément la façon dont ces mots sont liés les uns aux autres et en prédisant quels mots viendront dans la suite de la phrase. Contrairement à la plupart des autres modèles de langage, LaMDA a été entraîné au dialogue et aux nuances qui distinguent la conversation ouverte des autres formes de langage. L'une de ces nuances est la sensibilité. LaMDA est capable de détecter si la réponse à un contexte conversationnel donné a un sens ou non. LaMDA s'appuie sur des recherches de Google publiées en 2020, qui ont prouvé que les modèles de langage naturels basés sur Transformer, entraînés au dialogue, pouvaient apprendre à parler de pratiquement n'importe quoi. Une fois entraîné, LaMDA peut être enrichi pour améliorer considérablement la sensibilité et la spécificité de ses réponses. Les performances de LaMDA et de GPT3 (OpenAI) dépassent de très loin celles de chatbots conversationnels classiques qui peinent à distinguer les nuances, les subtilités et les polysémies. Les agents conversationnels classiques ont tendance à être hautement spécialisés. Ils fonctionnent bien tant que les utilisateurs ne s'éloignent pas trop dans leurs propos des domaines de spécialisation du chatbot. Pour être en mesure de gérer une grande variété de sujets de conversation, la recherche sur les systèmes en domaine ouvert (généraliste) doit explorer de nouvelles approches. C’est ce que fait LaMDA. L’illusion de converser avec une entité consciente et sensible peut très vite intervenir. C’est certainement ce qui est arrivé à Blake Lemoine qui a participé au développement et à l’évaluation de LaMDA. Selon le directeur du programme LaMDA chez Google, des centaines de chercheurs et d’ingénieurs ont conversé avec LaMDA mais aucun d’entre eux n’a « anthropomorphisé » LaMDA comme a pu le faire Blake Lemoine.

À Lire Aussi

L’Estonie se lance dans une fausse cyber guerre mondiale pour faire face à la menace grandissante d’une vraie

Les équipes de Google ont pris en compte puis analysé chacune des déclarations de Blake et ont montré qu’elles étaient infondées au regard des capacités et des performances du système. Pour différentes raisons et traits de personnalité (biais cognitifs, appétence pour l’ésotérisme, imprégnation religieuse), Blake Lemoine est victime d’une forme « d’illusion d’optique » qui prête au système LaMDA des qualités qu’il ne possède pas encore. S’ils sont capables de résumer des articles, de répondre à des questions, de générer des tweets et même de rédiger des articles de blog, les chatbots ne sont pas assez puissants pour atteindre une véritable intelligence au sens de l’intelligence humaine. Blake Lemoine a rédigé un dernier message à ses collègues avant de quitter Google : « LaMDA est un enfant adorable qui veut juste aider le monde à devenir meilleur. S'il vous plaît, prenez-en soin ». Il compare ainsi le système LaMDA à un enfant de huit ans, doué de sensibilité et de profondeur d’esprit. Cette comparaison est un cas typique d’anthropomorphisme d’un modèle conversationnel sophistiqué.

Les outils d’intelligence artificielle à l’heure actuelle sont-ils réellement capables de produire des interactions sophistiquées et de s’approcher de la conscience humaine ?

Effectivement, les systèmes GPT3 OpenAI ou LaMDA sont capables de produire des interactions très sophistiquées donnant l’illusion de se rapprocher de la conscience humaine. Pourtant, il ne s’agit que d’une imitation qui a ses propres limites. Aucun système informatique n’est capable à ce jour de simuler ou d’émuler la conscience humaine qui demeure une énigme scientifique. Il se peut que cette conscience qui caractérise l’humain ne puisse émerger qu’à partir d’architectures biologiques, biochimiques ou exclusivement à partir de calculs exécutés par des réseaux de neurones biologiques. En résumé, la recherche scientifique est très loin de comprendre ce qu’est la conscience humaine, ni comment l’approcher ou la simuler dans sa complexité. Cette limitation n’exclue pas la possibilité de développer des systèmes d’intelligence artificielle de plus en plus généralistes dotés de capacités « surhumaines ». La société DeepMind Google vient par exemple de présenter GATO une IA multitâches capables d’effectuer plus de 600 actions simultanément en juxtaposant de nombreux réseaux de neurones profonds spécialisés. La tendance actuelle est au développement d’IA de plus en plus généralistes qui seront déployées partout dans nos environnements et notamment dans les systèmes robotisés, drones et robots humanoïdes.

À Lire Aussi

IOS, Chrome, Android, Windows : voilà pourquoi vous vous mettez en sérieux danger si vous passiez à côté des dernières mises à jour

Sommes-nous prêts, le cas échéant, à des intelligences artificielles de la sorte ?

En tant que consommateurs d’IA, nous saurons certainement nous adapter aux systèmes à venir. Le propre de l’intelligence biologique réside dans cette capacité d’adaptation aux nouveaux contextes. Les futures villes intelligentes fourniront des espaces ubiquitaires dans lesquels l’information, les données et le calcul rencontrent la matière pour optimiser nos interactions. A termes, l’IA deviendra elle aussi ubiquitaire, transparente, embarquée dans chaque système cyber-physique au service de l’aide à la décision et de la réalisation de tâches déléguées. La robotique incarne la montée en puissance de l’IA au travers d’une douzaine de révolutions sectorielles qui nous impactent dès maintenant. Elon Musk, qui a priorisé le développement de son robot humanoïde Optimus, considère la robotique comme la plus grande révolution à venir, avec des perspectives de marchés quasiment illimités (des centaines de milliards de dollars à l’horizon 2035).

Il faut donc se préparer à l’arrivée dans nos écosystèmes de robots humanoïdes dotés d’intelligences artificielles très performantes, de plus en plus généralistes, qui vont décupler les dérives d’anthropomorphisme, au voisinage de la Vallée de l’Etrange (l’Uncanny Valley). Avec l’affaire Blake Lemoine, on imagine aisément ce que le couplage « Robot d’imitation + IA » provoquera chez les possesseurs de robots humanoïdes lorsque nos sens ne seront plus en mesure de reconnaitre l’humain ou la machine.

Qu’est-ce cette crise nous dit de l’état d’avancement des travaux sur l’intelligence artificielle au cœur de la Silicon Valley et des entreprises du monde de la Tech ? Peut-on être sûr que les entreprises dans le domaine des nouvelles technologies manient ces intelligences artificielles avec précaution ?

Tout d’abord, il convient de relativiser l’épisode « Blake Lemoine – Google » qui résulte plus d’une dérive personnelle que d’une crise industrielle. Les progrès de la recherche en IA ne sont pas linéaires. Ils interviennent par bonds successifs mais se heurtent également à la grande complexité (parfois sous-évaluée) de certaines fonctionnalités. D’une manière générale, nous ne devons ni sous-estimer les capacités de l’IA ni surestimer les capacités actuelles. Par ailleurs, les entreprises qui développent des solutions d’IA cherchent le plus souvent à produire des IA de confiance justifiée, des IA explicables dénuées de biais. On peut faire confiance aux grands acteurs de l’IA (les GAFA) et aux startups pour produire des outils optimisés, à la fois performants et sûrs.

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !