IA : pourquoi nous devrions songer à restreindre sérieusement les techniques de détection des émotions | Atlantico.fr
Atlantico, c'est qui, c'est quoi ?
Newsletter
Décryptages
Pépites
Dossiers
Rendez-vous
Atlantico-Light
Vidéos
Podcasts
High-tech
IA : pourquoi nous devrions songer à restreindre sérieusement les techniques de détection des émotions
©Reuters

Reconnaissance faciale

IA : pourquoi nous devrions songer à restreindre sérieusement les techniques de détection des émotions

Un centre de recherche de premier plan – l'institut « AI Now » – a appelé à restreindre l'utilisation des technologies de détection des émotions, malgré un marché en pleine croissance aujourd’hui estimé à 20 milliards de dollars.

Franck DeCloquement

Franck DeCloquement

Ancien de l’Ecole de Guerre Economique (EGE), Franck DeCloquement est expert-praticien en intelligence économique et stratégique (IES), et membre du conseil scientifique de l’Institut d’Études de Géopolitique Appliquée - EGA. Il intervient comme conseil en appui aux directions d'entreprises implantées en France et à l'international, dans des environnements concurrentiels et complexes. Membre du CEPS, de la CyberTaskforce et du Cercle K2, il est aussi spécialiste des problématiques ayant trait à l'impact des nouvelles technologies et du cyber, sur les écosystèmes économique et sociaux. Mais également, sur la prégnance des conflits géoéconomiques et des ingérences extérieures déstabilisantes sur les Etats européens. Professeur à l'IRIS (l’Institut de Relations Internationales et Stratégiques), il y enseigne l'intelligence économique, les stratégies d’influence, ainsi que l'impact des ingérences malveillantes et des actions d’espionnage dans la sphère économique. Il enseigne également à l'IHEMI (L'institut des Hautes Etudes du Ministère de l'Intérieur) et à l'IHEDN (Institut des Hautes Etudes de la Défense Nationale), les actions d'influence et de contre-ingérence, les stratégies d'attaques subversives adverses contre les entreprises, au sein des prestigieux cycles de formation en Intelligence Stratégique de ces deux instituts. Il a également enseigné la Géopolitique des Médias et de l'internet à l’IFP (Institut Française de Presse) de l’université Paris 2 Panthéon-Assas, pour le Master recherche « Médias et Mondialisation ». Franck DeCloquement est le coauteur du « Petit traité d’attaques subversives contre les entreprises - Théorie et pratique de la contre ingérence économique », paru chez CHIRON. Egalement l'auteur du chapitre cinq sur « la protection de l'information en ligne » du « Manuel d'intelligence économique » paru en 2020 aux Presses Universitaires de France (PUF).

Voir la bio »

Franck DeCloquement Dans les conclusions de son dernier rapport 2019, le centre de recherche AI NOW fait le constat abrupt que la reconnaissance des émotions aurait en réalité très peu de fondements scientifiques. Très schématiquement, cette technologie de détection augmenterait même l’amplification des disparités entre les races et les sexes des individus ainsi évalués. De sorte qu’elle devrait être immédiatement interdite d’utilisation dans des décisions qui affecteraient directement la vie des personnes. Mais aussi, et plus largement, pour des applications d’usages sensibles par les gouvernements. À l’image de l’évaluation des demandeurs d’emploi ou encore la détection des personnes soupçonnées d’avoir commis des crimes et des délits. Et ceci, avant que les risques inhérent n’aient été correctement détectés et évalués par des scientifiques, comme le stipule fortement l’institut AI NOW. 

Parmi les nombreux signataires du rapport, on compte de très nombreuses personnalités de renom. À l’image de Kate Crawford de Microsoft Research, de Roel Dobbe, Theodora Dryer, Genevieve Fried, Ben Green , Elizabeth Kaziunas, Amba Kak, Varoon Mathur , Erin McElroy, Andrea Nill Sánchez, Deborah Raji, Joy Lisi Rankin, Rashida Richardson, Jason Schultz, Sarah Myers West, Meredith Whittaker. Tous de l’AI Now Institute, New York University.

Source : https://iatranshumanisme.com/wp-content/uploads/2019/12/AI_Now_2019_Report.pdf

Sur le plan économique, et à l’image des nouveaux usages de l'intelligence artificielle (IA), de nombreuses entreprises tirent d’ores et déjà parti des technologies de détection des émotions pour renforcer leur gestion de la relation client (CRM). L'analyse des émotions avec ses caractéristiques futuristes évocatrices s’est d’ores et déjà fait une place de choix dans le monde des affaires et du Big Business. De manière très générale, cette technologie est utilisée pour améliorer la classification, la collecte, la visualisation et l'analyse des données. Dans son rapport, l’institut fait d’ailleurs le lien avec une autre étude publiée en avril 2018 par MRFR (Market Research Future). Selon celle-ci, le marché mondial de l'analyse émotionnelle atteindrait environ 25 milliards de dollars à l’horizon 2023, avec un TCAC de 17 % entre 2016 et 2023. Toujours selon Market Research Future, l'élargissement de la base d'application serait en partie à l'origine de cette importante croissance du marché mondial. Les développeurs améliorent constamment l'efficacité et la fonctionnalité des processus d’analyse des émotions, les rendant compatibles avec un large éventail d'applications logicielles et matérielles qui utilisent déjà des techniques d'exploitation audiovisuelles. En outre, la pénétration croissante du Big Data et de l'intelligence artificielle ouvre toujours plus de possibilités d'application dans le registre de l'analyse émotionnelle. L’étude de MRFR segmente d’ailleurs le marché mondial de l'analyse des émotions en quatre régions zones géographiques, à savoir : l'Amérique du Nord, l'Europe, l'Asie Pacifique (APAC) et le reste du monde. L'Amérique du Nord occupant bien entendu une position dominant en termes de parts de marché. Et la tendance devrait encore s’accroitre au long de la prochaine période selon Market Research Future.

Quels sont les dangers immédiats liés à l’utilisation irraisonnée des technologies de détection des émotions ? Faudrait-il en restreindre drastiquement les pratiques ? La France est-elle aussi touchée par ce phénomène ? 

Les dangers potentiels dans l’usage de ces technologies sont nombreux, car de nombreux biais subsistent. Comme nous le rappelions déjà plus haut, cette technologie est d’ores et déjà utilisée dans certains pays pour évaluer les candidats à un emploi ou encore les personnes soupçonnées de méfaits criminels. Pour ce faire, l’institut de recherche AI NOW fait à ce titre référence au dernier rapport publié en novembre dernier par « Electronic Privacy Information Center » (EPIC). Une publication ou il est question de « HireVue ». Autrement dit, l’un des outils d'intelligence artificielle que les entreprises utilisent de plus en plus pour évaluer les candidats. Les algorithmes de « HireVue » analysent les entrevues enregistrées par des moyens vidéo, en se basant sur plusieurs critères de choix. Et entre autre chose, celui du choix des mots employés par les individus étudiés, ainsi que les micros mouvements faciaux des candidats testés afin d’établir un « score d'employabilité » qui est alors comparé à celui des autres candidats en liste. À ce jour, plus de 100 entreprises l'auraient déjà employé sur un cheptel de plus d'un million de candidats selon l’Electronic Privacy Information Center. 

Et l’institut de s'inquiéter dans la foulée du fait que l'algorithme est formé sur la base de données finalement très incomplètes et fortement susceptible de spécifier les candidats « traditionnels » (blancs, hommes, etc.) comme « plus employables » que les autres. Les minorités visibles en feraient bien entendu les frais. Selon une autre étude publiée en janvier dernier par Lauren Rhue, professeur assistante de systèmes d'information et d'analyse à « Wake Forest University », il existerait à ce titre des preuves scientifiques patentes prouvant très nettement que l’usage de ces technologies pourraient amplifier les disparités sociales existantes. Et ceci, compte tenu de la génération de préjugés cachés dans la détection technologique des émotions d’autrui. Selon cette étude, bien que l’analyse des émotions soit de plus en plus usitée dans la vie quotidienne, cette technologie aurait pourtant de grandes difficultés à interpréter correctement les émotions des visages à la carnation noire. La technologie attribuant plus d'émotions d’occurrences négatives au visage de couleur foncée, qu'à celui d’hommes aux visages blancs. Par conséquent, les candidats qui s'écarteraient de ces critères médians de genre – y compris les personnes qui ne parleraient pas l'anglais comme langue maternelle, ou qui seraient handicapées – seraient ainsi plus susceptibles d'obtenir ; toujours selon nos experts ; des scores inférieurs aux tests. Cette technologie serait aussi testée dans le cadre d'autres applications hautement technologiques, à l’image des casques de réalité virtuelle (VR), afin de déduire les états émotionnels des gamers en temps réel. Dans une interview publiée en décembre 2018, le Président Directeur Général de « Looxid Labs », Brian Yongwook Chae, a présenté son produit phare « LooxidVR » qui permettrait de mesurer les ondes cérébrales et les images des caméras infrarouges des utilisateurs de VR quand ces derniers portent leur casque. Les données physiologiques brutes ainsi mesurées par « LooxidVR » sont prétraitées à l'aide d'un algorithme de réduction du bruit des ondes cérébrales, et de détection pupillaire. L'algorithme d'apprentissage machine serait alors appliqué aux informations prétraitées pour détecter les états émotionnels utilisant ce dispositif.

AI NOW fait également mention dans son rapport d’analyse d’une récente étude de « l'Association for Psychological Science », qui a passé deux années complètes à examiner plus de 1 000 articles sur la détection des émotions, et a conclu à l’issue de cette étude qu'il est très difficile d'utiliser les expressions faciales seules pour déterminer avec précision ce que ressent au plus juste une personne donnée. En effet, la corrélation serait très faible selon la psychologue Lisa Feldman Barrett de la « Northeastern University », entre les gens qui sourient quand ils sont heureux et ceux qui froncent les sourcils quand ils sont tristes. Les individus expriment en effet une multitude de variations expressives singulières, infiniment plus riches quand ils sont heureux ou tristes. Et celles-ci ne se limitent naturellement pas à quelques comportements gestuels ou expressifs caricaturaux. L’expression d’un sourire sur un visage donné pouvant tout à la fois être une manifestation de joie, de gêne ou d’ironie selon les individus étudiés. La spécificité d’un comportement humain donné variant beaucoup d'une culture à l’autre, et d'une situation à une autre. Le contexte spatial ou social d’interaction joue à ce titre un rôle déterminant dans la façon dont nous interprétons en retour les expressions de chacun, a indiqué la psychologue Lisa Feldman Barrett. 

Toujours selon les chercheurs de l'Association for Psychological Science, le défaut de données de formation des IA de reconnaissance des émotions constitue un danger patent en matière de mésinterprétation comportementale. Une approche extrêmement courante consiste pour les entreprises à demander aux gens de regarder des vidéos émouvantes afin de scanner les expressions de leurs visages. Puis une personne de l'entreprise est nommée responsable de « l'étiquetage » de ces données recueillies, pour alimenter l'algorithme. Toutefois, cela poserait un sérieux problème d’après le rapport : si l’on demande à quelqu’un de simuler par exemple la surprise avec les traits de son visage, cela peut se révéler au final très différent de l'apparence musculaire réelle que prendrait son visage lorsque que cette personne est véritablement surprise. Aussi, la tierce personne qui est chargée d’examiner et d’étiqueter toutes ces données numériques sur la base d’une expression faciale de son « cobaye » interprétée par elle comme matérialisant sa « surprise », n’en demande pas une confirmation à la personne concernée. Il devient donc objectivement très difficile de savoir si ladite expression était la véritable émotion de l’individu testé, peut-on aussi lire en substance dans le rapport de l'Association for Psychological Science. 

Comment endiguer tout cela ? Les gouvernements ont-ils assez de marge de manœuvre pour faire pression et agir sur les entreprises de haute technologie qui utilisent ces méthodes sans recul ?

Les prouesses technologiques fascinent bien souvent les esprits simples et les managers avides de martingales et profitabilité rapide. Les pays anglo-saxons en sont friands, et rien ne peut endiguer le Big Business du turbo capitalisme, dès lors qu’une croissance à deux chiffres pointe à l’horizon. Et cela, sans trop se soucier des considérations éthiques ou des effets systémiques catastrophiques que cela pourrait engendrer en cas d’emballements chaotiques. On pense immédiatement aux errements du trading à haute fréquence. 

Ainsi, le centre de recherche AI NOW recommande à ce titre que les organismes de réglementation et les pouvoirs publics puisse intervenir puissamment pour restreindre très substantiellement l’utilisation « sauvage » et sans recul des technologies de reconnaissance émotionnelle. Recommandant sans ambages que les sociétés en pointe dans les usages prospectifs de l’IA cessent immédiatement de le déployer, jusqu'à ce que les risques réels aient été correctement étudiés. Principe de précaution oblige.  Et à ce titre, la ville californienne de San Francisco est devenue la première ville des Etats-Unis à interdire en mai dernier l'usage de la reconnaissance faciale, en se basant pour l’essentiel sur des raisons éthiques en lien avec le respect des droits de l'Homme et de la personne humaine. Poussant le bouchon encore plus loin dans l’activisme et la sémantique militante, l’institut s'en ait aussi pris à l'industrie de l'IA pour son « racisme systémique, sa misogynie et son manque de diversité ». Elle a également demandé la divulgation obligatoire de l'impact environnemental de cette l'industrie. Affaire à suivre. 

En raison de débordements, nous avons fait le choix de suspendre les commentaires des articles d'Atlantico.fr.

Mais n'hésitez pas à partager cet article avec vos proches par mail, messagerie, SMS ou sur les réseaux sociaux afin de continuer le débat !