Intelligence émotionnelle… et empathie artificielle ?

Si l’intelligence artificielle est en passe de supplanter l’intelligence humaine dans (presque) toutes les tâches rationnelles, il lui manquera peut-être ce qui fait le sel de la vie des humains : les émotions. Pour autant, comprendre (et imiter) les émotions humaines ne lui sera pas forcément inaccessible… L’affective computing vise à doter les IA de cette capacité. Demain, les machines développeront-elles une empathie artificielle ?

En parcourant le désert californien de la vallée de la mort à la fin des années 1970, le photographe français Jeanloup Sieff fixe sur pellicule les traits de Vaugnet Rollins, cuisinière rencontrée dans un snack-bar. Les rides d’expression et l’intensité de son regard sont rendues par un tirage qui les met en valeur (Jeanloup Sieff, La vallée de mort, Contrejour, 2011). La photographie matérialise un portrait qui aurait vieilli en même temps que son modèle, à la différence du visage de Dorian Gray, figé dans une jeunesse lisse et éternelle – comme celui des robots qui deviendront un jour nos compagnons ? Le cliché offre d’imaginer la vie de cette femme, en contemplant les sillons creusés sur son visage par le temps et les émotions qui s’y sont imprimées.

Le psychologue Paul Ekman étudie depuis la fin des années 1970 les émotions humaines. Ses recherches l’ont conduit à publier de nombreux ouvrages sur le sujet, en s’inscrivant dans une démarche humaniste (Paul Ekman, Emotions Revealed: Recognizing Faces and Feelings to Improve Communication and Emotional Life, New-York, Time Books, 2003).

L’atlas des émotions

L’empathie, la compréhension des émotions et la faculté de s’y adapter, est selon lui l’une des clefs d’une plus grande harmonie entre les êtres humains. Les émotions sont aussi pour nous une question de survie individuelle (Céline Curiol, Un Quinze août à Paris, Actes Sud, 2015) et de vie collective (Mathieu Ricard, Plaidoyer pour l’altruisme, NiL, 2013) – elles fondent aussi notre prise de décision et notre passage à l’action :

Les émotions sont indispensables aux humains pour orienter un raisonnement et permettre une adaptation – elles définissent un objectif et maintiennent un état pour l’atteindre…[i]

Peur, joie, colère, tristesse, surprise et dégoût seraient six émotions communes à l’humanité. En 2015, un film d’animation produit par les studios Pixar, « Vice-Versa », s’inspire des recherches de Paul Ekman et les met en scène… (Serge Tisseron, « Vice-Versa : les émotions aux commandes », Cerveau & Psycho, Septembre-Octobre 2015).

Elles s’imprimeraient de façons variées sur les visages humains. Afin d’en dégager les similitudes (ou les différences), Paul Ekman a contribué à développer un outil numérique, le Facial Action Coding System, utilisé de nos jours par de nombreux chercheurs en psychologie. En 2013 par exemple, une équipe américaine met en évidence avec le FACS les expressions d’états émotionnels « mixtes », combinant les émotions de base (Shichuan Du, Yong Tao, Alexis M. Martinez. Compound facial expressions of emotion. Proceedings of the National Academy of Sciences of the United States of America, 111, 1454–1462, 2014). Les techniques d’analyse d’images contribuent de nos jours au développement d’outils de reconnaissance de ces émotions « fondamentales » et « mixtes » et permettent aux psychologues de les répertorier.

Paul Ekman a créé le site Internet www.atlasofemotions.org : il souhaite par ce biais présenter l’ensemble des émotions humaines, et les classer, selon leur intensité, leur durée. Il met à disposition ces données pour comprendre les émotions, afin de les reconnaître en soi-même comme en autrui – et afin de rapprocher les êtres humains.

Les expressions faciales ont été étudiées avant Ekman par le peintre Charles Le Brun (1619-1690) au XVIIème siècle. Ses dessins rendant compte des émotions exprimées par les visages humains ont été publiés en 1727 à titre posthume dans l’ouvrage Les expressions des passions de l’âme.

Au XIXème siècle, le médecin français Guillaume-Benjamin Duchenne (1807-1875) a contribué à établir une carte des expressions faciales. Il s’est servi d’un dispositif produisant des impulsions électriques stimulant les muscles du visage. Il a publié en 1862 le Mécanisme de la physionomie humaine – ou l’analyse électro-physiologique de l’expression des passions. Ces travaux ont notamment mis en évidence qu’un vrai sourire ne se caractérise pas uniquement par la contraction des muscles de la bouche, mais aussi par celle du muscle entourant de l’œil. Cette contraction serait quasiment impossible à exécuter de manière volontaire et non spontanée, de sorte qu’un sourire sincère se distinguerait d’un rictus

Les émotions au siècle du numérique

Duchenne au XIXème siècle et Ekman au XXème ont initié des travaux trouvant leur prolongement au XXIème avec les techniques numériques. À la confluence entre psychologie, informatique, neurosciences, automatique, sciences du comportement et de l’apprentissage, certains chercheurs développent des systèmes ayant les capacités de reconnaître, exprimer, synthétiser et modéliser les émotions humaines.

Cette nouvelle branche de l’informatique est appelée affective computing, littéralement « l’informatique des émotions ». Elle ambitionne par exemple de concevoir des machines capables de décoder les émotions humaines et de s’y adapter. Laurence Devillers, chercheure en affective computing au CNRS en explique le principe (propos rapportés par Martin Legros, « Robots pour être vrais ? », Philosophie Magazine, 118, 62-64, 2018) :

« Pour rendre plus naturelle l’interaction avec la machine, nous tentons de construire le profil de son interlocuteur en détectant des émotions – colère, peur, joie, tristesse –, ce qui permet à la machine d’adapter sa réponse. »

Des recherches engagées avant tout pour une meilleure complémentarité entre intelligences humaines et numériques (Annette Zimmerman, « L’IA émotionnelle au service de la personnalisation des interactions », Journal du Net, 12 février 2018) .

Aux États-Unis le Groupe d’informatique des émotions à l’Université de Californie (www.emotions.ict.usc.edu) et le Groupe de recherche des émotions au MIT (www.affect.media.mit.edu) ont compté parmi les précurseurs de ce domaine de recherche, lequel se développe dans de nombreux pays. En France, le laboratoire LIMSI, dans lequel travaille Laurence Devillers, s’investit dans ces recherches. La Chine, l’Inde, l’Iran comptent parmi les pays s’intéressant à ce domaine et publient une abondante littérature scientifique.

 Créée en 2009, la société américaine Affectivia (www.affectiva.com), start-up du MIT, développe et commercialise un logiciel de reconnaissance des émotions Affdex, analysant les expressions faciales et le ton de la voix. La société affirme disposer de la base de données la plus ample à ce jour sur les réponses émotionnelles d’internautes ou de spectateurs à des contenus numériques (publicités, vidéos musicales, annonces, etc.). Ces données permettent au logiciel de prédire l’efficacité d’un message publicitaire selon différents critères (géographique, social, culturel, ethnique ou générationnel) afin de proposer des campagnes ciblées.

Ces recherches ouvrent potentiellement la porte, à une multitude d’usages, parmi les plus anecdotiques :

D’autres usages peuvent être imaginés, en particulier sur la surveillance de l’état émotionnel d’un conducteur de véhicule ou un opérateur de machines… afin de prévenir des situations potentiellement dangereuses – comme de s’assurer de la productivité d’un employé ?

Ces travaux conduisent certains chercheurs, comme le psychologue Serge Tisseron, à repenser le rapport entre les humains et les machines :

Voir des émotions manifestées par des humains ou des robots active les mêmes zones du cerveau de façon relativement semblable. Il va falloir vivre avec des machines avec lesquelles nous interagissons comme avec les humains, en sachant que ce ne sont pas des humains.[ii]

Plus humains que l’humain ?

L’avenir dira quelles capacités nous prêterons ou confèrerons aux robots et aux intelligences artificielles… émotionnelles. L’imagination nous permet d’avoir accès à certaines d’entres elles. Le film Blade Runner (Ridley Scott, 1985), raconte que les Répliquants, des robots dotés d’IA et devenus nuisibles aux hommes, font l’objet d’une traque. Ils sont conçus par la firme Tyrel Corporation, dont la devise, « Plus humains que l’humain », fait écho au mythe du surhomme de Frédéric Nietzsche. Afin d’assurer leur stabilité émotionnelle, leurs concepteurs implantent artificiellement un passé dans les algorithmes… Les robots s’avèrent capables de ressentir des émotions. Ils sont aussi dotés d’une durée de vie finie, dont ils ont conscience. Le dernier d’entre eux, Roy Botty, est finalement abattu par le chasseur Dekkar (Harrison Ford). Il évoque dans un dernier souffle ses souvenirs numériques. L’histoire du tournage raconte que ces mots ont été improvisés par l’acteur Rutger Hauer, incarnant le dernier Répliquant, un modèle Nexus-6 : « J’ai vu tant de choses, que vous, humains, ne pourriez pas croire… De grands navires en feu surgissant de l’épaule d’Orion. J’ai vu des rayons fabuleux, des rayons C, briller dans l’ombre de la Porte de Tannhaüser. Tous ces moments se perdront dans l’oubli, comme les larmes dans la pluie… »

Loin des effets du cinéma, le portrait de Jeanloup Sieff témoigne de l’extraordinaire faculté d’adaptation et d’évolution des humains – et de ce qui les rend uniques. D’autres s’inspirent des traits humains afin de créer des robots qui leur ressemblent. En 2017, le roboticien japonais Hiroshi Ishiguro présente Erica, un robot humanoïde de sa création – selon lui, le plus abouti à ce jour. Le journal anglais The Guardian lui consacre un mini-documentaire vidéo. Erica a 23 ans. Elle converse avec des humains en répondant à leurs questions, elle s’exprime d’une voix cristalline… et laisse parfois échapper un petit rire mécanique laissant entendre qu’elle saisit l’humour humain. Un programme d’apprentissage sophistiqué lui permet de s’adapter à la conversation. Si son visage de silicone n’est pas marqué par les émotions, elle arbore cependant un petit sourire en coin. Equipée de capteurs infra-rouges, elle détecte la présence d’humains à ses côtés et reconnaît leurs expressions faciales. Elle est capable de mouvements permis par un système articulé à vingt degrés de liberté (les premiers modèles de simulation utilisés par les ingénieurs en mécanique en comportaient autant… avant d’atteindre plusieurs centaines de milliers de nos jours). Erica présentera peut-être un présente un journal télévisé (Salomé Gaganne, « Au Japon, le journal télévisé présenté par un robot nommé Erica », Le Figaro, 21 février 2018). Son créateur s’interroge : « Qu’est ce que signifie pour nous ‘être humain’ ? ».

Pour certains chercheurs, comme Rand Hindi (« The impossibility of Artificial Human Intelligence », TEDx, Rennes, 7 avril 2018) la réponse est claire : il manquera à l’IA le jugement et le sens commun caractéristiques des humains. Guidés par nos émotions, nous faisons des choix non rationnels… garants d’une efficacité que ne peut atteindre un algorithme. Laurence Devillers porte ce regard sur les robots conçus afin de s’adapter aux émotions des humains (propos rapportés par Martin Legros, « Robots pour être vrais ? », Philosophie Magazine, 118, 62-64, 2018) :

« Les robots ne ressentent rien, n’ont pas d’émotions ni d’intention. Il s’agit de simulation. Même si (nous parvenons) à produire un robot ‘bienveillant’, (il) n’est que de la modélisation… »

Observant avec ces chercheurs en IA le plus lucidement le développement actuel de cette technologie et nous interrogeant sur ses propriétés futures, nous questionnons nos choix et nos capacités d’humains. Les usages que nous ferons des techniques seront décisifs pour notre avenir : nous fera-t-il sourire… ou provoquera-t-il notre effroi ?

 

[i] Serge Tisseron, Petit traité de cyber-psychologie, Le Pommier, 2018, page 124.

[ii] Idem, page 92.