Le dernier débat du Mouton Numérique (organisé par Julien de Sanctis) portait sur l’empathie artificielle et fut passionnant à plusieurs égards (replay). Bien loin des poncifs sur la révolte des machines et la Singularité, la discussion entre Serge Tisseron et Jérôme Monceaux soulève des thèmes pas si souvent abordés. C’est à la suite de ce débat que nous prîmes, Irénée Régnauld et moi-même, la parole à un événement récent (replay).

Cet article reprend et complète notre propre exploration du sujet.

De quoi parle-t-on ?

L’empathie artificielle, donc, est la capacité, pour un dispositif technologique (logiciel, robot etc.) de percevoir les émotions humaines et de s’y adapter. C’est une partie du champ de recherche de sociétés comme Softbank Robotics (ex Aldébaran) et Spoon Artifical Creatures.

Précisons d’ailleurs que les technologies dites « empathiques » ne le sont pas (une technique, ça ne ressent rien), pas plus que « l’intelligence artificielle » n’est intelligente. Ce que font ces techniques, c’est capter nos émotions et y apporter des réponses. Gardons-nous également de confusions avec l’émotion artificielle qui est la capacité pour les robots de ressentir par eux-mêmes – et un domaine de recherche autrement plus balbutiant dont nous ne parlerons pas aujourd’hui. Nous éviterons les raccourcis faciles vers les robots conscients d’eux-mêmes, ressentant des émotions, questionnant les frontières de l’humain et autres « IA fortes » à la Ghost in the Shell ; tenons-nous en pour l’heure aux IA « faibles », celles qui existent déjà.

L’empathie artificielle est une suite logique des travaux en UX (user experience) et en UI (user interface) destinés à faciliter la relation humain / machine. Ces domaines sont en très forte extension du fait de l’explosion des dispositifs informatiques qui nous entourent et continueront de se développer avec l’arrivée de l’Internet des Objets. Bref, l’UX et l’UI cherchent à rendre aussi intuitif que possible l’usage de systèmes complexes… et débouchent de plus en plus vers des applications intuitives, notamment le langage parlé (« Ok Google, trouve-moi une pizzeria. »). Alexa, Cortana et compagnie appartiennent à cette tendance. L’empathie artificielle apparaît alors comme un moyen pour les systèmes connectés de s’insérer dans un « usage normal du monde » tel que nous le pratiquons, en y prenant corps. C’est-à-dire en y intégrant des créatures robotiques capables de comprendre ce que nous disons et les émotions que nous affichons naturellement.

Qu’est-ce qu’un robot ?

La littérature et le cinéma de science-fiction nous ont largement habitués à la figure classique du robot, humanoïde ou pas, comme d’une créature limitée à son enveloppe corporelle. Les précurseurs du genre, Asimov en tête, concevaient le robot tel qu’un individu mécanique conçu artificiellement et doué – sinon de conscience – au moins d’une certaine forme de réflexion. Dans le langage courant, un robot est une machine dédiée à accomplir une tâche spécifique automatiquement et sans (trop) d’intervention humaine : assembler une voiture sur une chaîne de montage, cuisiner un plat complexe à partir d’ingrédients de base etc. Serge Tisseron, dans son intervention au Mouton Numérique, explique sur le robot est la machine informatisée capable d’interagir sur l’environnement physique, non plus seulement à travers des pixels et du son comme le font les ordinateurs. Point commun de toutes ces définitions : le robot est un corps artificiel physique agissant sur l’environnement et obéissant à une fonction.

Sauf que ça n’est plus si vrai.

Avec la mise en réseau des systèmes les uns avec les autres, un grand nombre d’objets de notre environnement se trouvent connectés à Internet. Avec Google Home, c’est la maison entière qui l’est : la domotique (sons, lumières, ouvertures / fermetures…), l’ordinateur et le téléphone (contacts, appels, messages…), les services Google et les réseaux (applications, agenda, météo, recherche…). Bref, la myriade d’outils et de services auparavant distincts deviennent un milieu, un environnement dont votre compte Google est le liant et Google Home le point d’entrée.

Dans cette situation, le « robot Google Home » n’a pas besoin d’un corps pour fonctionner. C’est un simple plot équipé d’un micro, d’une enceinte et d’une connexion sans fil. Le robot qui préside à la bonne marche de votre maison connectée… c’est la maison elle-même. C’est l’ensemble des systèmes qui l’innervent et la composent. Ses yeux seront les caméras que vous placerez un peu partout, ses micros ceux de vos ordinateurs, smartphones, youpala connectés etc. Son intelligence artificielle (reconnaissance vocale, souvenirs forgés avec vous et à propos de vous…) n’est pas à domicile, elle est accessible via Internet, sur les serveurs de Google. En d’autres termes : sa corporalité n’est le siège d’aucune intelligence ni pensée, elle n’est qu’une interface vers un service tiers.

Dans cette logique c’est la notion même de robot qui est à revoir. Le corps-robot, même s’il est doté d’un visage expressif, d’une démarche naturelle et d’un milliard de lignes de dialogues combinables – ainsi que d’un logiciel d’empathie artificielle destinée à vous mettre à l’aise – n’est toujours qu’une interface. Même un hypothétique androïde parfaitement réalisé et capable d’empathie comme les hubots de Real Humans ne seraient, en fait, plus limité à sa corporalité dès lors qu’il pourrait se mettre en réseau. Et pourquoi ne le serait-il pas puisque les mises à jour et apprentissages de ses pairs pourraient lui permettre de décupler sa puissance de connaissance, sa rapidité d’apprentissage et son habilité à faire ? Pourquoi apprendre à un robot ce que ses congénères savent déjà depuis longtemps ? A ce titre les intervenants du Mouton Numérique évoquent le fait qu’un robot non-connecté aurait besoin d’autant de temps d’apprentissage du monde qu’un enfant nouveau-né, soit 15 ans environ (même si, en fait, ça dépend aussi de sa faculté d’apprendre par rapport à un humain). En réseau, le robot peut se connecter et accéder dès son lancement à l’ensemble des apprentissages de ses pairs depuis des années. Même en considérant les futurs progrès dans la vitesse d’apprentissage des robots, il sera toujours plus simple de leur faire profiter de l’expérience des autres. Pourquoi embarquer les algorithmes et logiciels dans chaque individu alors qu’ils peuvent tous puiser à la même source ?

Le robot connecté n’est plus un individu tel que représenté dans la conception classique de la science-fiction. Il n’est pas un système embarqué dans un corps robotique (comme une « âme » dans un corps), mais un système centralisé (ou non) auquel se connectent des corps-interfaces robotiques. Il fait société mais n’est pas un individu – puisqu’il partage tout et puise sa capacité à penser sur le même serveur que les autres. Bref, le robot n’as pas d’identité propre, il est une identité partagée entre tous les individus qui composent l’ensemble. Et l’empathie artificielle n’est que le moyen de nous faire ressentir que ça n’est pas le cas grâce à des jeux complexes de mémorisations, d’imperfections et de personnalisations diverses destinés à nous donner l’illusion de la vie dans ce qui n’est qu’une façade personnalisée reliée à une intelligence artificielle commune.

Her, le film de Spike Jonze déjà classique, montre ça extrêmement bien lorsque Theodor (Joaquin Phoenix) découvre que la relation amoureuse qu’il entretient avec son IA Samantha (Scarlett Johansson) est partagée, par elle, avec des milliers d’autres utilisateurs. Et que celle qu’il appelle « Samantha » n’est que l’interface personnalisée pour lui d’une IA centrale… qui partage des relations amoureuses avec plusieurs milliers d’utilisateurs.

Vers les interfaces empathiques

A partir de ces constats se posent deux questions (et bien plus) : 1/ Pourquoi faire des corps-robots et 2/ Pourquoi les rendre empathiques ?

La réponse à ces questions est, à mon sens, à peu près la même. La robotique est une discipline incroyablement complexe. C’est un paroxysme de mécanique adaptative destinée à reproduire ce que les animaux, nous y compris, font sans y penser : marcher sur une plage de galets, monter un escalier en courant, porter un plateau chargé etc. La robotique se bat quotidiennement avec le paradoxe de Moravec… et à quoi bon ? L’histoire nous a prouvé que les fantasmes technophiles de la science-fiction à papa étaient totalement hors sujet sur de nombreux points. Star Wars par exemple, collectionne les exemples d’aberrations robotiques comme C3PO (traducteur / diplomate sur pattes qui maîtrise « 6 millions de formes de communication ») et les droïdes de combat de la prélogie (bonshommes branlants tenant des blasters (fusils) classiques à la main et communiquant entre eux… à la voix). Ces robots sont sous-optimisés à l’heure où le moindre smartphone fait de la traduction instantanée en se connectant à Internet, et où les drones tuent depuis les airs, sans avoir besoin de transporter un pistolet conçu pour une main humaine, en communiquant par coordonnées GPS plutôt que de s’encombrer d’une synthèse vocale.

(Si le sujet des drones vous intéresse, je vous conseille de visionner le débat du Mouton Numérique consacré à leur sujet.)

De la même manière, les androïdes d’Alien et les répliquants de Blade Runner, dont l’apparence humaines est quasiment indétectable pour les humains non-initiés et dont la mission est un simple servage pour veiller lors des trajets longues distances (Alien) ou travailler dans des mines (Blade Runner). Ils n’ont aucun usage de leur apparence quasi-humaine. Pourquoi leurs concepteurs ont-ils mis tant d’effort à les rendre indétectables parmi les humains, alors que leur mission peut aussi bien être réalisée par un HAL 9000 (2001 l’Odyssée de l’Espace), c’est à dire un vaisseau intelligent sans enveloppe corporelle particulière ?

Les robots n’ont aucun besoin d’un corps qui imite les mouvements humains tel qu’on l’imaginait dans les décennies précédentes. Les robots de Star Wars imitent assez mal les mouvements humains, mais le font surtout sans aucun intérêt pratique. Personne n’a besoin d’un androïde-majordome chez soi, s’il peut directement s’adresser à sa maison connectée en domotique pour être servi. A créer des corps-robots dotés de visages expressifs adaptables à nos propres émotions, ne risque-t-on pas, au mieux, d’arriver en pleine Uncanny Valley ?

Pourquoi faisons-nous des robots empathiques ?

Selon l’angle dont on choisir d’aborder la question, plusieurs pistes de réponses sont possibles.

1/ Parce qu’on peut

La première réponse à cette question serait d’affirmer que c’est juste « pour le fun », artistique, rigolo, techniquement stimulant. On fait des robots parce qu’on peut le faire, tout simplement, comme une sorte de jeu – un jeu qui nous emmènerait vers une forme détournée « d’autoréplication » à la Frankenstein, de satisfaction d’un besoin démiurgique de l’humanité de créer une nouvelle forme de vie : cette fameuse « IA forte » que l’on attend toujours. C’est dans ce sens que semble aller Rodolphe Gelin, Chief Scientific Officer chez Softbank Robotics et invité du Mouton Numérique (pour « Les robots n’ont pas de sexe ! ») en septembre 2018 : on a commencé à concevoir des robots humanoïdes (Nao) sans usage précis, pour la prouesse technologie, pour le buzz, parce que personne ne le faisait.

Convenir de cette première réponse consisterait à admettre que nous avons affaire à une forme de déterminisme technologique : tout développement technique conduirait inexorablement à la création d’êtres robotiques / logiciels imitant et comprenant leurs concepteurs. Mais pour cela il faudrait convenir que la technologie ne va que dans une seule direction, comme si elle était dirigée par une marche « naturelle » voire une volonté propre qui ne serait pas la variété de volontés de ses concepteurs. Évidemment, c’est assez douteux. Pour vérifier ce postulat, il faudrait pouvoir nous comparer à une autre civilisation technologisée, quelque-part ailleurs. Ce n’est pas demain la veille, donc.

2/ Parce que c’est inévitable

Une deuxième théorie, dans la suite de la première, consisterait à dire que les robots sociaux et autres interfaces empathiques sont la suite logique d’un système technique qui envahit le monde (le fameux « système technicien » de Jacques Ellul) et grignote peu à peu les facultés humaines, les laissant s’éteindre progressivement sur l’autel de la performance et de l’efficacité. C’est le robot « assistant, aide à domicile », plus performant que son homologue humain et, surtout, moins cher.

La réponse classique est de proposer des robots comme des assistants sociaux destinés à pallier l’absence d’êtres humains dans les métiers de services qui s’automatisent ; ou pour des acteurs commerciaux privés, la grande distribution (pour observer les réactions des clients), les médias, la sécurité, le management, pour évaluer le « bonheur au travail », etc. ; ou encore dans ce qu’il faut bien appeler « l’industrie » médico-sociale, par exemple auprès de personnes isolées, âgées ou handicapées. On appréciera le cynisme teinté de solutionnisme de la situation : puisque nous abandonnons les populations sensibles et dépendantes (problème social), vendons-leur des robots empathiques (« solution » technique). Pour reprendre les termes de Nicolas Falempin : « Nous construisons des robots plus empathiques pour s’occuper de ceux dont nous n’avons plus le temps de nous occuper. » (Voir l’émission de France Culture dédiée à ce sujet, dans laquelle une personne âgée se prend d’affection pour une machine électronique en forme de chien. Nous ne saurions dire s’il faut s’en réjouir ou non).

Signe des temps.

Les technologies, quelles qu’elles soient, ne tombent jamais du ciel. Elles émanent d’un certain environnement social, d’une certaine organisation de la société. Elles sont aussi souvent le reflet de leur époque. C’est pourquoi il est primordial de questionner leurs conditions de production, et les visions du monde dans lesquelles elles voient le jour.

En l’occurrence, la captation des émotions par des systèmes empathiques s’inscrit dans cette nouvelle économie de la « data ». Nos affects (c’est à dire les émotions dans le social, celles qui passent entre les individus) sont des informations qui ont une valeur et font naître une nouvelle économie basée sur les émotions. Elles sont une nouvelle monnaie d’échange. A ce titre, il est assez emblématique que le dernier Prix Nobel d’économie, Richard Thaler, soit un expert du comportement et pas un économiste.

Ce qui nous amène à la troisième réponse possible à notre question initiale.

3/ Pour asseoir la nouvelle économie des émotions

Une autre analyse pourrait nous amener à affirmer que nous créons des robots empathiques pour asseoir un système économique qui exploite les affects. Le robot empathique, c’est aussi le robot qui nous affecte et qui pourrait, un peu à la manière des Likes et autres émotions actionnables sur Facebook nous encourager à faire circuler nos états d’âmes.

Dans leur ouvrage Le web affectif, Camille Alloing et Julien Pierre notent que l’objet de cette nouvelle économie émotionnelle est « d’enregistrer nos affects » pour attirer l’attention, faire réagir, favoriser la circulation des émotions. Tout leur ouvrage part d’une étude fouillée de l’utilisation des émotions sur les réseaux sociaux et notamment sur Facebook, mais aussi sur la reconnaissance faciale. Mais ces travaux pourront très bien, demain, permettre de prolonger la réflexion dans les champs de la robotique et de l’intelligence artificielle.

Affecter quelqu’un, c’est « l’inciter à s’émouvoir, c’est avoir de l’effet sur lui, empiéter sur sa réalité ». Or ce « capitalisme affectif » qui passe aujourd’hui par des interfaces web, pourra passer demain par des assistances vocaux (Alexa reconnaît les frustrations dans votre voix, un robot saura quand vous froncez les sourcils) ; et cette récupération des affects n’est pas sans danger. La technologie capture des émotions dont nous n’avons pas toujours conscience – que nous n’avons pas forcément consentis à donner – et l’exposition de ces données émotionnelles, tout comme l’exposition des données personnelles, pourrait créer de nouvelles formes de domination.

Neil Postman avait ce mot dans Se distraire à en mourir :

« Huxley nous enseigne qu’à une époque de technologie avancée, la dévastation spirituelle risque davantage de venir d’un ennemi au visage souriant que d’un ennemi qui inspire les soupçons et la haine. »

Tel l’entre-soi agréable et confortable des réseaux sociaux (provoqué par la bulle de filtres), l’empathie robotique ne sert pas à créer de nouvelles créatures sensibles, mais à rendre plus confortable l’usage des technologies en donnant à leurs interfaces une apparence de créature sensible, curieuse, sympathique. Quiconque s’est déjà battu avec des interfaces incompréhensibles où des télécommandes à 96 touches appréciera. Jusqu’à, peut-être, espérer vivre un jour dans un paradis intercompatible, connecté et géré par un robot personnalisé – tel Jarvis l’ami imaginaire de Mark Zuckerberg.

Oui mais voilà. Comme toujours en pareille circonstance il est légitime de se demander à qui profite la technologie ? La bulle de filtres sur Facebook n’est-elle pas un moyen, volontaire, de nous rendre la plateforme plus agréable ? A son instar le cocon technologique monitoré par nos IA empathiques ne seront-ils pas les lieux parfaits où couler des jours heureux ?

Vous me voyez venir.

Ne sommes-nous pas plus perméables au marketing lorsqu’il est parfaitement ciblé ? Lorsqu’il nous comprend ? Qu’il nous est susurré par un ami bienveillant – fût-il un ordinateur ? Peut-être le meilleur vecteur du consentement, est-il l’ami, la voix. L’empathie serait alors un « cheval de Troie émotionnel » qui s’insinue dans le quotidien, au plus près de vos habitudes, de vos émotions, pour infuser ses petits messages tellement sur-mesure, tellement à propos, tellement taillés pour vous. Rien que vous.

Malgré la bonne foi des chercheurs et roboticiens qui y travaillent aujourd’hui, il se pourrait que les robots empathiques qui nous entoureront peut-être demain ne soient que les visages agréablement personnalisés de pompes à données personnelles monstrueuses et en réseau… destinées à nous mettre à l’aise pour intégrer nos affects dans des systèmes de monétisation, et mieux nous vendre de nouvelles paires de chaussures.

~ Antoine St. Epondyle & Irénée Régnauld

7 Commentaires

  1. La vallée dérangeante, je viens d’apprendre une nouvelle expression… ^^
    Curieusement, ces petits « défauts » dans la matière, qui rendent le produit pas tout à fait réaliste, ne gène pas les acheteurs de poupées pour adultes, dont on fait commerce sur la misère sociale et bien sùr sexuelle des gens… Intérêts financiers, disais-tu?

    • Intérêts financiers… mais en même temps le marketing ne marche jamais tant que lorsqu’il s’adresse à un besoin préexistant. En gros : ça rend effectivement « service » à des gens, ces poupées. Et apparemment, si j’en crois le dernier débat du Mouton sur le genre des robots (vidéo replay à venir), les robots sexuels seraient plus utilisés pour leur compagnie que pour leurs prestations sexuelles. Glauque non ?

      • Carrément…et surtout triste! Dans un monde surpeuplé, on est si seul qu’on préfère parler à u objet inanimé et le toucher plutôt que d’aller prendre le thé chez la voisine et faire connaissance.
        (Bien sur que ça rend service à certaines personnes, par ailleurs.)

        • Mouais, et en même temps j’aurais personnellement du mal à le faire, de sonner chez la voisine. Le temps de la vie villageoise et de la surveillance sociale de tous par tous est révolue, (la surveillance revient par ailleurs), pas forcément seulement pour le pire.

          Sauf que l’essor de l’individu qui va avec va de pair avec une certaine solitude, qui donne sur ce genre de trucs.

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici