Quand les robots apprennent par eux-mêmes comme les bébés <!-- --> | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
High-tech
Quand les robots apprennent par eux-mêmes comme les bébés
©DR

Minute tech

Un pas de plus a été fait récemment en matière de robotique développementale : des chercheurs de l'université de Washington ont mis au point une nouvelle méthode de programmation offrant aux robots la capacité d'imiter les modalités d'apprentissage des bébés. Une avancée qui ouvre la voie à de plus larges possibilités encore, même si celles-ci demeurent limitées techniquement.

Jean-Gabriel Ganascia

Jean-Gabriel Ganascia

Jean-Gabriel Ganascia est professeur à l'université Pierre et Marie Curie (Paris VI) où il enseigne principalement l'informatique, l'intelligence artificielle et les sciences cognitives. Il poursuit des recherches au sein du LIP6, dans le thème APA du pôle IA où il anime l'équipe ACASA .
 

Voir la bio »

Atlantico : Une unité de chercheurs de l'Université de Washington a développé une nouvelle méthode de programmation qui permet aux robots d'imiter la manière dont les bébés apprennent. En quoi consiste cette expérimentation ? 

Jean-Gabriel Ganascia : Cette expérimentation relève d’un champ bien connu et identifié depuis longtemps qui s’appelle la " robotique développementale " et qui vise à mimer les capacités d’apprentissage des vivants avec des robots. On peut s’intéresser aux animaux ou aux hommes et essayer de reproduire leurs facultés d’acquisition des connaissances. Or, on sait depuis très longtemps que l’imitation joue un rôle central dans la formation de l’enfant à la fois chez l’homme et chez les primates supérieurs. On a donc essayé de reproduire ces capacités mimétiques chez les robots. En d’autres termes, la machine identifie un agent humain, animal ou même artificiel, repère l’action qu’il est en train d’exécuter, puis tente de refaire la même chose de lui-même. Notons que la problématique de l’apprentissage des machines a été perçue depuis très longtemps comme cruciale. En effet, si l’on souhaite fabriquer une machine qui ressemble à un homme et paraisse douée d’intelligence, il faut qu’elle dispose d’une grande quantité de connaissances sur le monde environnant. Or, il serait très fastidieux d’entrer ces connaissances manuellement. Les livres ne suffissent pas à eux seuls pour comprendre le monde extérieur. Il convient donc de développer des principes d’apprentissage des machines. C’est ce que la robotique développementale propose ici.

Quelles possibilités cette avancée technologique ouvre-t-elle ? 

De telles recherches ouvrent bien évidemment deux types de perspectives. Les premières ont trait à la modélisation de nos capacités cognitives : si l’on reproduit avec des automates, en l’occurrence avec les automates perfectionnés que sont les robots, les capacités humaines, nous serons en mesure de mieux les comprendre et de déterminer les facteurs qui les influencent. Cet objectif purement scientifique suffirait à lui seul à justifier de telles recherches. Mais à cela, il faut ajouter un second volet, plus pragmatique : des robots capables d’apprendre continument en imitant les personnes qu’ils croisent seraient capables de s’approprier leurs gestes, leurs manières de faire et de les égaler peut-être, voire même, éventuellement, de les dépasser. Ainsi, un robot placé dans une usine observerait un ouvrier et referait les mêmes gestes, de façon à être en mesure de le remplacer. De même, un robot, face à un conducteur automobile le regarderait, puis imiterait son comportement jusqu’à être, lui-même, en mesure de conduire. Bref, ce sont de nouvelles méthodes d’apprentissage qui ne passent pas par un professeur qui décrit la méthode, explique la façon de procéder et punit ou récompense selon que l’élève a bien ou mal réussi. Au premier abord, le gain apparaît évident, car la pédagogie est une science difficile ; la formation des professeurs est coûteuse et leur disponibilité n’est jamais totale… Au lieu de cela, il suffirait de donner des exemples édifiants de personnes à imiter.

Quelles en sont les limites ?

Pour séduisante qu’elle apparaisse, cette approche souffre de plusieurs limitations.

La première tient à la motivation du robot : avant de décider d’imiter, il faut d’abord comprendre qu’un individu, personne ou animal, fait quelque chose et identifier l’action qu’il exécute. Ensuite, il faut, comme le jeune enfant, se centrer sur une action qui paraît plus intéressante que les autres, car on ne peut pas tout imiter. Comment procéder pour juger de cette valeur particulière ? Autrement dit, comment la machine peut, d’elle-même, se stimuler à bon escient ? A cette fin, il faudrait qu’une fois qu’elle a appréhendé une tâche exécutée par un agent, ce qui n’est déjà pas facile, la machine réalise qu’elle n’est pas en mesure de la refaire d’elle-même avec les connaissances dont elle dispose, mais qu’elle pourrait tout de même essayer de s’y mettre…

La deuxième limitation vient de la difficulté qu’une machine éprouve pour abstraire des connaissances. Jean Piaget nous a appris qu’avec l’âge, un enfant acquiert progressivement des capacités d’abstraction de plus en plus poussées. Cela correspond à des stades bien identifiés au cours desquels l’enfant va se représenter les choses différemment, en utilisant des appareils conceptuels de plus en plus abstraits. Or, si les machines sont en mesure d’apprendre pour optimiser une fonction exprimée avec des descripteurs donnés par avance, elles ne sont pas vraiment en mesure de construire de nouveaux descripteurs et de restructurer leurs connaissances en changeant d’elles-mêmes leurs appareils conceptuels. Des tentatives pour créer automatiquement des nouveaux langages de représentation ont été poursuivies depuis longtemps, mais celles-ci se heurtent à bien des obstacles.

Est-ce une vraie révolution par rapport aux autres méthodes d'apprentissage développées jusqu'ici ? 

S’agit-il d’une révolution ? Pour répondre à la question, il faudrait étudier les résultats obtenus. Mais, on peut d’ores et déjà affirmer que ces directions de recherche ne sont pas neuves. Il y a une dizaine d’années, le programme de recherche XPERO financé par la Communauté européenne et faisant collaborer de multiples équipes de différents pays européens travaillait déjà sur des robots capables d’expérimenter par eux-mêmes. Plus récemment, une équipe de l’INRIA dirigée par Pierre-Yves Oudeyer travaillait sur l’apprentissage développemental des robots et s’intéressait particulièrement à les doter d’une forme de curiosité artificielle qui les incitait à reproduire telle tâche ou telle capacité, plutôt que telle autre. Bref, les équipes européennes en général, et françaises en particulier, travaillent depuis longtemps sur ces sujets extrêmement stimulants et prometteurs. Il est donc difficile d’affirmer que les travaux de l’université de Washington sont révolutionnaires, même s’il sont passionnants.

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !