C’est la panique du moment : demain, tous remplacés par l’IA ! Entre technoprophètes allumés, gourous de la tech siliconés du cerveau et autres magnats industriels en mal d’accélérer le monde encore un peu plus, IA partout, IOverdose. Du coup, on s’est dit que ça méritait un cycle entier de vidéos sur Planète B pour clôturer en beauté notre saison 3. Hugues Robert, Clémence Gueidan et moi-même vous offrons donc une première mouture pour Blast, sur l’IA dans la science-fiction.
Au programme :
- Complexe de Frankenstein
- IA fortes, IA faibles
- Trois lois de la robotique d’Isaac Asimov
- Est-il humaniste d’abandonner un enfant mécanique dans les bois ?
- Blade Runner et répliquants sensibles
- Et plein d’autres choses encore
PLANÈTE B : SOMMAIRE DES ÉPISODES
Texte intégral
En 1818, par la grâce de la fée Électricité alors récemment devenue objet de toutes les curiosités scientifiques et para-scientifiques, le docteur Frankenstein crée la vie, et permet de facto à Mary Shelley, l’autrice qui se cache d’abord derrière la publication anonyme de ce roman, d’inventer la science-fiction telle que nous la connaissons désormais. Le titre complet de l’œuvre, “Frankenstein ou le Prométhée moderne” indique sans ambiguïté la filiation mythologique de ce qui s’invente ici : comme le titan s’élevant contre la volonté des dieux pour donner le feu aux hommes, comme Adam refusant le diktat du Dieu l’ayant créé à partir de rien, la créature du docteur Frankenstein se révolte, et ouvre la voie à l’un des courants littéraires les plus prolifiques de la fin du XIXème siècle.
Lorsque le cinéma se met de la partie, à partir de 1895 (le théâtre s’en était déjà régulièrement emparé depuis 1823), c’est l’explosion : entre 1910 et 1944, il n’y aura pas moins de 16 adaptations, de la plus fidèle à la plus délirante, de “Frankenstein”, qui devient presque un nom commun (désignant souvent, en un étonnant et trompeur raccourci, la créature plutôt que le créateur).
Surtout, “Frankenstein” façonne durablement, bien avant l’apparition de la robotique, de l’informatique et de la discipline dite intelligence artificielle, nos perceptions conscientes et inconscientes de ce qui se joue dans le rapport de l’humain à ses créations – créations qui, en l’espèce, le dépasseraient et/ou le remplaceraient.
Un siècle après Mary Shelley, en 1920, Karel Capek invente justement dans son “R.U.R.” le terme “robot” et met en scène (il s’agit d’abord d’une pièce de théâtre) leur révolte contre les humains qui les exploitent. On a déjà évoqué dans notre épisode “En haut et en bas”, à propos de science-fiction et de lutte des classes, ce coup de tonnerre marxiste et métaphorique, venant d’un grand dramaturge tchèque a priori peu soupçonnable de léninisme. Ensemble, “Frankenstein” et “Robot Universal Rossum” façonnent déjà tout un imaginaire.
C’est précisément contre cet imaginaire qui le révulse qu’Isaac Asimov, qui deviendra l’un des plus grands noms de la science-fiction mais qui n’est alors, à 22 ans, qu’un auteur quasiment débutant, démarre son cycle de nouvelles (et beaucoup plus tard, de romans) intitulé “Les robots”.
En 1942, il invente, derrière le rideau de ses nouvelles, le concept de “complexe de Frankenstein”, irrationnel et non scientifique, pour désigner la peur des créatures artificielles créées par l’homme, en général, et des robots plus ou moins intelligents, en particulier. Quels moyens mobilise-t-il pour cela ? A-t-il raison ? Et, lui comme ses nombreux successeurs, ne se trompe-t-il pas de bataille, en réalité ?
Face à la peur qui hante aujourd’hui en partie nos consciences et nos inconscients, face au “Grand Remplacement” par les robots et les intelligences artificielles, ce sont les questions que ce nouvel épisode de Planète B vous invite à parcourir en notre compagnie.
***
Avant de poursuivre l’épisode, nous voulions vous faire part d’une nouvelle importante pour nous. Nous recevons beaucoup de demandes de votre part pour organiser des rencontres, pour discuter ensemble des épisodes de Planète B et creuser les thèmes que nous y abordons. Nous allons donc tenter une expérience : le jeudi 12 juin à partir de 19 h 30, rendez-vous à la librairie Charybde, à Ground Control (au 81 rue du Charolais, Paris 12ème) pour discuter librement avec notre équipe, Antoine, Clémence et moi-même, autour de cet épisode-ci et éventuellement de quelques verres amicaux. Notez-le bien sur votre agenda !
Revenons à nos robots et à nos ordinateurs de plus en plus puissants.
Pour défaire l’imaginaire du complexe de Frankenstein qui le hante, Isaac Asimov affirme et réaffirme que le robot est avant tout et uniquement une machine logique. D’un coup de baguette magique trempée dans un vernis scientifique de bon aloi, il invente donc les Trois Lois de la Robotique, qu’il implante dans le “cerveau positronique” dont il a doté ses créatures. Et ce alors même que l’ordinateur n’existe pas encore en tant que tel, même si Ada Lovelace et Charles Babbage ont inventé le programme informatique en 1842 et que la machine électromécanique conçue par Alan Turing fonctionne depuis 1942 à Bletchley Park, en grand secret, pour percer les codes militaires nazis.
Rappelons brièvement ces trois lois, tant elles sont aujourd’hui devenues quasiment partie intégrante de l’imagerie concernant l’informatique avancée (au point que de nombreux profanes et même un peu plus, lorsqu’on les interroge à ce propos, croient qu’elles existent et sont effectivement en vigueur) :
- Un robot ne peut porter atteinte à un être humain ni, restant passif, laisser cet être humain exposé au danger
- Un robot doit obéir aux ordres donnés par les êtres humains, sauf si de tels ordres entrent en contradiction avec la première loi
- Un robot doit protéger son existence dans la mesure où cette protection n’entre pas en contradiction avec la première ou la deuxième loi
Beaucoup plus tard dans son cycle romanesque, Isaac Asimov ajoutera une quatrième loi, dite “Loi zéro”, qui n’est pas une loi en tant que telle, mais une déduction logique effectuée par tout cerveau positronique digne de de nom :
- Un robot ne peut pas faire de mal à l’humanité, ni, par son inaction, permettre que l’humanité soit blessée
Dans leur excellent texte “Pour une culture critique de l’IA”, en ouverture du dossier consacré aux intelligences artificielles dans le numéro 78 de l’excellente revue Multitudes, en 2020, Mathieu Corteel, Ariel Kyrou et Yann Moulier-Boutang revenaient sur le rapport public sur l’intelligence artificielle dirigé par le mathématicien Cédric Villani en 2018, rapport qui rappelait cette vérité trop rarement mentionnée ailleurs : “La fiction, les fantasmes et les projections collectives ont accompagné l’essor de l’intelligence artificielle et guident parfois ses objectifs de long terme. (…) C’est probablement cette alliance entre des projections fictionnelles et la recherche scientifique qui constitue l’essence de ce qu’on appelle l’IA.” Aucun autre domaine de l’activité humaine, à part peut-être la conquête spatiale, n’aura vu se développer un tel phénomène.
Nous rappelons régulièrement dans Planète B, et nous le rappellerons toujours, que la science-fiction n’a pas pour mission, en aucune manière, de “prédire l’avenir”, ni même, n’en déplaise à Elon Musk, à Jeff Bezos et à leurs admirateurs, de fournir un réservoir commode d’idées business originales. Il s’agit bien, encore et toujours, de faire un ou plusieurs “pas de côté” pour questionner les dimensions techniques, sociales et politiques de nos présents, à la lumière de futurs imaginaires, proposant ainsi des pistes, des balisages, des sentiers qui bifurquent le cas échéant.
En 9 nouvelles, “Les Robots” d’Isaac Asimov posent dès 1942 trois questions-clé qui hantent le rapport contemporain à l’informatique avancée (la logique calculatoire, l’imitation de l’humain et la mission confiée à la machine), et en ignorent deux points déterminants, le conflit et le profit, points aveugles de nature bien différente chez Isaac Asimov comme, pour l’essentiel, chez les créatrices et créateurs qui lui ont succédé.
1) Du calcul à l’intelligence ?
La première question est celle de la prééminence de la logique calculatoire.
Parmi les 9 nouvelles du recueil “Les robots”, deux, “Cycle fermé” et “Attrapez-moi ce lapin”, illustrent plus particulièrement cette domination symptomatique. En tant que scientifique hautement revendiqué – et en tant qu’amateur invétéré d’énigmes policières -, Isaac Asimov structure volontiers ses récits (et pas uniquement dans le cycle des “Robots”) comme des enquêtes visant à remédier à un dysfonctionnement, né d’une faille logique, le plus souvent une contradiction dans la pondération des trois Lois face à un problème “réel” (et non plus abstrait). Ce conflit entre plusieurs instructions de programmation est d’ailleurs l’un des motifs les plus utilisés à l’écran, depuis plusieurs dizaines d’années, pour rappeler dramatiquement cette présence intime du calcul dans la machine.
En vous résumant maintenant les principes du fonctionnement des différentes “écoles”, historiques comme contemporaines, qui travaillent ce concept brumeux qu’a été et qu’est encore si souvent “l’intelligence artificielle”, Clémence va nous rappeler à quel point on y privilégie, à la racine même, la logique et le calcul par rapport à d’autres possibilités.
IA faible, IA forte, approches symboliques et connexionnistes, singularité, par Clémence Gueidan
Dans Intelligence artificielle, il y a “Intelligence”. Mais qu’est ce qu’on entend par là exactement ? L’intelligence artificielle c’est un concept, une science. C’est l’étude en parallèle de l’intelligence “humaine” et la possibilité de transférer ou de simuler cette intelligence par des moyens informatiques.
Sauf que dans les faits, quand on parle d’IA, la plupart du temps, on fait référence aux programmes, aux algorithmes ou bien aux machines capables de réaliser des tâches habituellement effectuées par des êtres humains.
Affirmer “une Intelligence artificielle joue aux échecs” ou “cette IA crée de la musique”, c’est une forme d’abus de langage. Avec cette syntaxe trompeuse, on personnifie, on humanise alors qu’en réalité, on fait référence à des programmes informatiques qui utilisent des algorithmes.
Et derrière cette humanisation du vocabulaire, une autre confusion vient brouiller les pistes : celle entre l’Intelligence Artificielle Faible et l’Intelligence Artificielle Forte. Ces deux concepts sont souvent mélangés, que ce soit dans le discours public ou dans la fiction. Pourtant, ils sont très différents. D’une part, on a l’IA Faible, autrement dit des programmes qui se concentrent sur des tâches précises. Par exemple, traduire une phrase, générer une image, ou encore remporter une partie d’échecs. Pas de quoi alimenter les films catastrophes qui imaginent une révolte des machines.
De l’autre côté, il y a l’IA Forte, qui fait référence à un programme capable, non seulement, de produire un comportement intelligent, mais aussi d’éprouver une impression d’une réelle conscience de soi, de « vrais sentiments », et « une compréhension de ses propres raisonnements ». Ici, l’IA sait qu’elle joue aux échecs, elle veut composer de la musique. Et là, c’est beaucoup plus vendeur en terme de storytelling.
Ces dernières années, la démocratisation, des modèles basés sur le langage, comme ChatGPT ou ses cousins, vient encore alimenter le décalage entre perception du grand public et réalité technique. Ces LLM (pour Large Language Model) sont capables de générer du texte de manière fluide, ils vous répondent, font parfois des blagues et donnent leur opinion. L’exemple parfait de systèmes qui semblent intelligents et remplis d’humanité. Mais ce n’est qu’une illusion.
Si puissants soient-ils, ces modèles relèvent toujours de l’IA faible : ils n’ont pas d’intention, pas de conscience, ils ne “comprennent” rien au sens humain du terme et ne savent même pas qu’ils existent. Est-ce que cette limite sera franchie un jour ? En attendant d’avoir la réponse, on peut s’intéresser aux deux grandes approches qui ont structuré l’histoire de l’intelligence artificielle.
Tout d’abord, il y a l’approche symbolique, qui a dominé des débuts de l’IA jusqu’aux années 80. L’intelligence y est présentée comme un raisonnement logique, rationnel, structuré autour de règles explicites. On représente le monde avec des symboles, des faits, des lois, et la machine tire des conclusions par déduction, un peu comme dans un raisonnement mathématique. C’est exactement ce qu’on retrouve dans les récits d’Asimov dont Hugues parlait tout à l’heure, et dans leur descendance plus ou moins directe.
Plus récemment, l’approche connexionniste s’est développée. Ici, on ne cherche pas à raisonner comme un humain mais à s’inspirer du fonctionnement de son cerveau : plutôt que d’écrire toutes les règles, on présente des ensembles de données gigantesques au programme et on le laisse en tirer des conclusions statistiques. C’est dans cette approche probabiliste que s’ancrent l’immense majorité des systèmes modernes, des assistants façon ChatGPT aux outils de génération d’images comme Midjourney, en passant par les systèmes de recommandation de Netflix ou Spotify, qui prédisent ce que vous aimerez avant même que vous ne le sachiez.
Avec ce type d’apprentissage, voire d’auto-apprentissage, la complexité du modèle l’emporte souvent sur la transparence du raisonnement. Résultat, le fonctionnement de ces programmes devient opaque. Un flou parfait pour nourrir l’imaginaire de la science-fiction : entre l’auto-optimisation et le surgissement de la conscience, il semble d’y avoir qu’un pas que la SF franchit allègrement.
Dans la série Westworld, par exemple, les androïdes ne sont pas censés penser, seulement répéter jour après jour la même boucle narrative. En commençant à se souvenir, ils se mettent à dévier du script et finissent pas se réécrire eux-mêmes. Leur mémoire retrouvée devient un levier d’émancipation, la première fissure dans la boucle, le premier pas vers une forme de conscience. Hugues fournira tout à l’heure d’autres exemples de cette fiction incrémentale, émergente en quelque sorte.
Et c’est sans doute là que se glisse, en filigrane, la peur ultime : qu’un jour, les machines n’aient plus besoin de nous pour apprendre, pour se corriger, pour décider. Que l’intelligence artificielle dépasse l’intelligence humaine et devienne hors de contrôle. Ce point de bascule, c’est ce qu’on appelle la Singularité.
Évoqué dès les années 30, ce concept connaît un regain de popularité à partir des années 80, notamment grâce à l’auteur de science-fiction Vernor Vinge. Dans son essai La venue de la singularité technologique, il imagine ce moment comme la fin de l’ère humaine. Les machines prendraient le relais, et l’humanité perdrait le contrôle de son destin.
Cette idée vertigineuse, reste néanmoins très contestée : ses fondations scientifiques sont fragiles, et elle néglige de nombreuses limites — qu’elles soient techniques, énergétiques ou politiques. En fin de compte, la singularité relèverait moins d’un scénario plausible que d’un fantasme technologique, d’un mythe moderne, peut-être plus révélateur de nos angoisses que de notre avenir réel.
Mais la question, elle, demeure : jusqu’où sommes-nous prêts à déléguer notre intelligence ?
***
Qu’elles entérinent cette dominante calculatoire ou qu’elles cherchent, plus rarement, à s’en affranchir, les approches retenues par la science-fiction butent elles aussi sur ce passage du calcul à l’intelligence – et, bien sûr, à la conscience (qui toutefois ne leur est pas toujours indispensable).
Dès 1945, Alfred Elton Van Vogt, bien avant que ses errances ne l’entraînent pleinement du côté de la dianétique et de sa progéniture scientologue, imagine la Machine des Jeux, le super-calculateur qui surplombe “Le monde des non-A”, roman fondateur de son oeuvre, qui connaîtra une popularité durable en France grâce à la traduction fantasque et imagée de Boris Vian.
Mais c’est Fredric Brown, en 1950 et en 25 lignes, qui réalise sans doute la prouesse ultime dans sa nouvelle “La réponse”, lorsque les scientifiques de tout l’univers connu mettent en réseau l’ensemble des ordinateurs existants pour poser la question : “Dieu existe-t-il ?”, à laquelle la machine répond benoîtement : “Maintenant, oui”.
C’est ce modèle que John Brunner, dans son “Tous à Zanzibar” de 1968, développera savamment et ô combien ironiquement en imaginant Shalmaneser, l’ordinateur géant capable de piloter de ses recommandations exigeantes, directes ou beaucoup plus manipulatoires, aussi bien l’ensemble de la société de consommation planétaire que les myriades de conflits géopolitiques qui la ralentissent ou l’accélèrent. La force quantitative du calcul, dans toute sa splendeur fantasmée : si on ajoute de la puissance, on finit par obtenir de la conscience.
Plus récemment, on a vu se développer en science-fiction des approches incrémentales, ou intégrant largement une part de “fortuit” dans une évolution darwinienne, sous contrainte de résolution de problème (le véritable moteur, s’il en est, des programmes de toute nature) : c’est ainsi que la conscience (ou en tout cas une forme de conscience) naît chez un programme conçu à l’origine pour personnaliser un jeu vidéo dans une école de guerre pour jeunes surdoués (dans “La stratégie Ender” et ses trois suites, d’Orson Scott Card, entre 1985 et 1996), chez un programme de gestion de vaisseau spatial forcé d’improviser des solutions face à des situations toujours plus imprévues et dégradées (dans “Aurora” de Kim Stanley Robinson, en 2015), chez un programme d’espionnage et d’analyse de renseignement piraté et modifié par un haut responsable de la sécurité chinoise (dans “Lune rouge” du même auteur, en 2018) ou même chez un assemblage hétéroclite et totalement surprenant de programmes divers chargés, entre autres, de la détection des délits en ville, de service météo à la demande, de supervision des flux du métro ou de gestion de jeux massivement multijoueurs (dans “Les machines fantômes” d’Olivier Paquet, en 2019). C’est aussi cette logique de petits pas où le hasard tient son rôle qui est à l’oeuvre dans “Le cycle de vie des objets logiciels” de Ted Chiang, en 2010, un auteur indispensable à bien des égards, et dans “La vallée de l’étrange” de J.D. Kurtness en 2023, un ouvrage dont on vous parlera davantage dans notre prochain épisode.
On aboutirait ainsi, presque logiquement, à la superbe échelle de Tchegorov (fictive, comme les trois lois de la robotique, qu’elle devrait – logiquement, si j’ose dire – remplacer dans nos esprits), attribuant une note aux intelligences artificielles en fonction de leur degré de conscience, échelle à lire chez Ray Nayler, dans le roman “La montagne dans la mer” en 2022 et dans le fabuleux recueil “Protectorats” (dont les nouvelles ont été écrites entre 2015 et 2022. La nouvelle “La mort de la caserne de pompiers n°10”, dans ce recueil, est sans doute l’une des plus belles nouvelles jamais écrites sur le thème de l’intelligence machinique.
En science-fiction, les concepts importants inventés par une autrice ou un auteur (comme les trois lois de la robotique, ou comme l’ansible d’Ursula K. Le Guin, par exemple) sont repris et diffusés par d’autres pour rejoindre peu à peu le patrimoine créatif commun. Dans le cas prometteur de l’échelle de Techegorov, Michael Roch emprunte d’ores et déjà cette invention, joliment et évidemment avec l’accord de son créateur, pour enrichir la lore caribéo-futuriste de son roman “Tè Mawon” et de ses nouvelles de “Lanvil emmêlée”, en 2022 et en 2024.
Ainsi, jusqu’à aujourd’hui y compris, la science-fiction nous questionne inlassablement, même si c’est parfois à son corps défendant : faut-il lire la vie à l’aune d’une approche computationnelle ? Faut-il se satisfaire d’une impasse technique sur la nature même de l’intelligence ? En somme, si jouer aux échecs ou au go, c’est indéniablement réfléchir, est-ce vraiment penser ?
2) De l’imitation à l’humanité
Après celle de la priorité au calcul, la deuxième question est celle de l’imitation de l’humanité : comment mais surtout, sans doute, pourquoi ?
En revenant aux nouvelles du recueil “Les robots”, quatre d’entre elles, “Le petit robot perdu”, “La preuve”, “Évasion” et “Raison”, tournent autour de ces points-là, même si chez Asimov, l’imitation est comportementale et non physique, fondamentalement (la nature de machines hirsutes de ses robots est souvent soulignée par ses soins – beaucoup plus d’ailleurs que dans le film “I, Robot” d’Alex Proyas, en 2004, qui s’en inspire d’assez loin).
C’est ici que le lien entre le corps robotique et la conscience machinique se cristallise, c’est ici que la notion même de ressemblance par rapport à l’homme prend toute son ampleur, là où la fonction technique d’origine semble s’effacer dans un mimétisme comportemental pour l’essentiel illusoire, et en tout cas insolite. C’est ici que se justifie le titre de “robo-psychologue” que porte la scientifique Susan Calvin, la principale enquêtrice utilisée par Isaac Asimov dans les énigmes avant tout logiques que nous proposent “Les robots”.
Cette question sera, à part entière, au centre du prochain épisode de Planète B, conduit par Antoine – qui va néanmoins nous offrir sans attendre une plongée au cœur du vertige ressenti lorsque l’imitation est quasiment parfaite, grâce au “Blade Runner” de Philip K. Dick et de Ridley Scott.
Blade Runner et le vertige dickien, de quoi les réplicants sont-ils le nom ? par Antoine Daer
Au chapitre de l’imitation et des « IA » si ressemblantes qu’elles en deviennent indétectables, la référence incontournable de toute analyse de SF et de cinéma s’impose d’elle-même : j’ai nommé l’inénarrable Blade Runner.
Blade Runner donc, est un film culte réalisé par Ridley Scott et sorti en 1982, adapté très librement du court roman de Philip K. Dick Les androïdes rêvent-ils de moutons électriques ? (paru en 1968).
On y suit la traque du détective Rick Deckard (joué par Harrison Ford), lancé à la recherche de « réplicants » en fuite sur Terre après s’être évadés de leur esclavage martien. A mesure qu’il les retrouve Deckard « retire », c’est-à-dire exécute les réplicants uns par uns et finit par s’enfuir avec l’une d’elle, Rachael, non sans s’être posé au passage de nombreuses questions métaphysiques… et questionnant sa propre nature.
Deckard est-il un réplicant ? On vous laisse donner vos théories dans les commentaires.
En tous cas, ce qu’est précisément un réplicant n’est jamais vraiment définit dans le film, ni dans le roman. Philip K. Dick n’utilise pas le terme, il dit « androïde » et se rattache donc plutôt au champ lexical des robots.
Il cherche surtout à troubler les frontières du vivant dans un monde fracassé par une guerre nucléaire, et dont les habitants subsistent en cherchant tant bien que mal les connexions émotionnelles qu’ils peuvent ; pour se créer de l’empathie.
Ils élèvent des animaux artificiels, chats, chiens, chèvres, moutons, puisque les vrais sont presque tous disparus.
Ils utilisent, aussi des « boîtes à empathie » pour partager la Passion d’un nouveau Prophète religieux. Dans cette grande foire aux faux-semblants tout est plus ou moins illusoire, et le roman tout entier est traversé par cette tension : la peur de voir les androïdes devenir humains (ils le sont déjà) répond surtout à la peur de voir les humains devenir des robots mécaniques et dénués de sentiments.
La peur du « Grand Remplacement » par les machines n’est légitime que dès lors qu’on se place en compétition avec elles… et donc qu’on se comporte justement comme des machines.
Une tension qu’on retrouve parfaitement saisie par le film.
Les seules choses qui différencient les humains des réplicants viennent de leur conception artificielle et ont été décidés par l’industrie qui les a conçus : durée de vie limitée à quelques années, faux souvenirs implantés, et une sorte de difficulté à ressentir les émotions comme les humains (qui découle sûrement des deux autres points précédents d’ailleurs).
Leur différence fondamentale serait donc une différence d’empathie. Difficile à croire quand on voit à quel point les réplicants, dans le film, font démonstration de toute une batterie d’émotions. Ils éprouvent la peur, le désir, la soif de liberté, l’amour et cherchent des réponses aux questions existentielles qui les hantent.
Pour les repérer dans la population, les flics utilisent le test « Voight-Kampff » : un questionnaire doublé d’une sorte de détecteur de réactions empathiques, dont la fiabilité est sujette à caution.
Et c’est d’autant plus révoltant que Rick Deckard lui-même, et les autres humains, semblent totalement dénués de la moindre émotion ou empathie justement.
Il n’hésite pas à abattre ses cibles en pleine rue, visiblement sans le moindre scrupule.
C’est donc précisément parce qu’elle se définit elle-même comme « empathique », alors que tous ses actes démontrent à quel point elle ne l’est pas, que l’humanité peut se livrer à un pur esprit de domination contre ses propres enfants. Définir l’autre comme une chose est un préalable qui justifie l’esclavage et la vengeance contre ceux qui sortent du rang.
Et plus l’humanité s’acharne à dénier aux autres le statut d’humain, plus elle devient elle-même inhumaine. C’est un paradoxe dickien par excellence.
Les réplicants sont pourtant totalement humains. Ils n’ont pas les formes farfelues ou utilitaires des robots variés de Mars Express (Jérémie Périn 2023) par exemple. Ils ont forme humaine, et d’ailleurs le film Blade Runner 2049 de Denis Villeneuve le dit clairement dès ses premières secondes. On y lit :
« Les réplicants sont des humains issus de la bio ingénierie, designés par Tyrell Corporation pour être utilisés « off-world ». Leur force accrue en fait des esclaves idéaux. »
L’industrie aurait pu leur donner la peau bleue ou verte, l’acharnement raciste qui se déchaîne contre eux aurait au moins été plus manifeste. Et difficile à nier.
A ce titre, une scène controversée du premier film est intéressante. Dans Blade Runner, Deckard force un baiser puis une relation sexuelle avec Rachael… qui finit par se laisser faire dans une mise en scène typique de la culture du viol extrêmement présente à Hollywood dans les années 80 (et encore maintenant !). Même si le film romantise cette scène problématique, elle contribue aussi à épaissir le personnage d’anti-héros de Deckard : un salopard caractérisé, qui pourchasse et assassine des réplicants au seul motif qu’ils le sont – et sont indétectables sans des tests alambiqués aux résultats foireux qu’il ne pourrait peut-être même pas réussir lui-même. Logique, alors, qu’un tel personnage considère le corps des femmes comme étant disponible pour lui. A fortiori le corps des femmes réplicantes.
Bon, pas sûr que le film de Ridley Scott fasse vraiment exprès de passer ce message. La critique de la répression policière, du patriarcat et du racisme n’est pas son souci principal – ni celui du roman. Ni d’ailleurs celui de Blade Runner 2049 qui continue à romantiser cette relation, et réduit au passage la définition de l’humanité à la capacité pour les réplicants d’enfanter. Comme si, stériles ou pas, ils n’étaient pas 100% humains depuis le départ.
Pourtant, dans le premier film, Rachael elle-même laisse entrevoir à quel point les Blade Runner, leurs définitions étriquées de l’humain et leurs tests à la con servent moins à « retirer » les individus dangereux (comme Roy Batty, le réplicant accusé de meurtre) qu’à maintenir l’ordre social des dominants. Alors que Deckard lui pose des questions intrusives au motif de détecter si elle est réplicante ou non, Rachael a cette phrase :
« Vous me testez pour savoir si je suis une réplicante ou une lesbienne, monsieur Deckard ? »
Une fois gratté le vernis sécuritaire et l’angoisse d’un “Grand Remplacement”, ne reste qu’une pure, classique, bête et méchante histoire de domination sociale.
Les gardiens autoproclamés de l’humanité, paniqués à l’idée d’être remplacés par plus humains qu’eux, répriment toute écart à la norme.
3) Servir, oui, mais à quoi ?
Après le calcul et l’imitation, la troisième question distillée au fil des “Robots” d’Isaac Asimov, et notamment par les nouvelles “Robbie”, “Menteur” et “Conflit évitable”, c’est bien celle de l’utilité, de la fonction, de la mission, quels que soient les noms que l’on choisisse ici. Pour servir l’homme, oui, mais à quoi (et en évitant le célèbre jeu de mots de la nouvelle éponyme de Damon Knight, en 1950, que je vous laisserai découvrir par ailleurs) ?
Rappelons que les robots comme les intelligences artificielles naissent, dans la fiction encore plus que dans la réalité, peut-être, pour rendre officiellement service aux humains – même si chez les ingénieurs et les chercheurs, c’est souvent bien davantage le défi scientifique et technique (la dimension authentiquement prométhéenne, pourrait-on dire) qui hante les déclarations publiques des uns et des autres.
Ce défi scientifique peut, plus souvent qu’on ne croit, dériver du côté d’une étonnante dimension spirituelle, presque magique : à ce sujet, le petit essai “Les Prophètes de l’IA” de Thibault Prévost paru chez Lux Editeur donne un aperçu saisissant du délire mystique de certains gourous lancés dans la course à l’IA, dans notre monde bien réel.
La dimension fortuite (ou darwinienne, en un sens) que l’on évoquait un peu plus haut est singulièrement absente des radars publics (à part sous forme de “crainte de l’accident”, on y reviendra – le traitement asimovien renverrait de son côté, toujours logiquement, ce type d’accident à une faille de raisonnement qu’il convient de corriger mathématiquement).
Les machines intelligentes ont des tâches à remplir, des missions que l’on a tôt fait, même sans intervention magique de la notion de conscience autonome, de transformer en raison d’être. Beaucoup d’histoires, dans la science-fiction, étudient avec plus ou moins de ruse et de machiavélisme, mais aussi de tendresse, les cas des machines ayant perdu leur raison de calculer – et donc de vivre, comme c’est le cas par exemple dans “Coeur de Rouille” de Justine Niogret, où des pantins inutiles hantent les maisons dévastées d’une ville privée de “maîtres”. Clémence va nous présenter, sous la signature de Steven Spielberg, l’une des réalisations les plus emblématiques dans ce domaine, pour mettre en abîme la notion même de machine intelligente.
AI : Intelligence Artificielle de Steven Spielberg, par Clémence Gueidan
C’est vrai que dans la fiction, on voit souvent des machines qui perdent leur raison d’être…
Comme cette maison automatique dans la nouvelle Il viendra des pluies douces, l’une des Chroniques Martiennes de Ray Bradbury : elle prépare le petit déjeuner, nettoie les chambres, récite des poèmes… alors que l’humanité a disparu dans la guerre nucléaire. On vous en parlait déjà dans notre épisode “Comment survivre à la fin du monde”.
Mais cette perte de sens, elle a rarement été dépeinte de manière aussi déchirante, que dans A.I. de Spielberg.
A.I. Artificial Intelligence, c’est d’abord un projet porté pendant des années par Stanley Kubrick. Il veut adapter Les Supertoys durent tout l’été, roman de science-fiction de Brian Aldiss paru en 1969.
Il y travaille pendant plus de 15 ans et meurt en 1999 sans voir son rêve porté à l’écran. C’est finalement son ami Steven Spielberg qui mènera le projet à son terme.
En 2001, le public découvre donc David, un enfant robot de onze ans – incarné par Haley Joel Osment – capable de ressentir des émotions. Son créateur : le professeur Hobby – joué par William Hurt – un savant persuadé que la clé d’une conscience artificielle se trouve dans l’amour.
Le petit David débarque alors chez Henri et Monica. Leur fils est dans le coma, gravement malade, alors peut-être qu’un petit méca plein de tendresse leur fera du bien ? Au début, Monica n’est pas franchement convaincue, mais finalement, elle décide d’activer le protocole d’attachement du jeune robot. Et là, tout bascule : David l’aime désormais, pour toujours.
Oui mais le fils de Monica, celui en chair et en os, sort du coma. Et ça ne se passe pas bien du tout entre les deux enfants. Alors que faire ? Si David est renvoyé à l’usine, il sera détruit. Monica l’aime trop pour le condamner… Mais pas assez pour le garder. Elle décide finalement de l’abandonner dans une forêt dans une scène déchirante.
À partir de ce moment, David n’a plus qu’une idée en tête : trouver la fée bleu, la même que dans Pinocchio. Si elle a donné vie au pantin de bois, elle pourrait, le transformer lui aussi en “vrai petit garçon”. Il poursuivra sa quête jusque dans les ruines d’un parc d’attraction englouti où il trouvera bien une fée bleue à qui adresser ses prières.
L’histoire raconte que David répètera son souhait pendant des siècles. Le temps passe, l’humanité disparaît, mais il continue d’espérer que son voeu soit exaucé pour qu’enfin, Monica l’aime.
Une obsession bouleversante à observer, où la programmation du petit robot le condamne à ressentir éternellement la douleur de l’abandon. Car c’est tout le paradoxe de cette histoire : il a beau souffrir, David est incapable de se soustraire à l’attachement qui a été activé dans ses circuits. Il est prisonnier d’une émotion qu’il ne peut ni remettre en question, ni dépasser.
À qui la faute dans tout ça ? À Monica, qui l’a activé avant de l’abandonner ? Au Dr Hobby, qui l’a programmé ? Dès le début du film, une question fondamentale est posée : quelles responsabilités avons-nous envers une machine qui ressent ?
Face à cette interrogation morale, Hobby élude. Mais en écoutant ses arguments, la vérité devient difficile à maquiller : derrière l’enfant parfait, il n’y a ni générosité, ni utopie humaniste. Il y a un produit, un marché, un business plan, et un fantasme de toute-puissance qui confond amour et soumission.
***
Correctement conçue, programmée et nourrie, la machine intelligente est donc censée pouvoir tout accomplir ou presque, des tâches les plus simples aux plus complexes. Les nombreuses exceptions à ce voeu pieux nourrissent une grande partie de la fiction qui lui est consacrée depuis 1942, tandis que, dans la réalité, elles conduisent à des révisions périodiques des ambitions et des discours visionnaires, à la baisse évidemment, une fois que la poussière de l’enthousiasme, de la hype et des crédits publics jadis, des investisseurs privés, pour l’essentiel, aujourd’hui, est retombée.
Comme le rappelle le chercheur en sciences cognitives Daniel Andler (je vous recommande vraiment la lecture de son tout récent “Intelligence artificielle, intelligence humaine : la double énigme”, publié chez Gallimard, groupe Madrigall), cela est déjà arrivé par quatre fois, massivement, depuis 1950, et même dans l’euphorie post-ChatGPT et la frénésie des entreprises voulant “glisser de l’IA” dans le moindre courrier à leurs clients, cela conduit aujourd’hui les acteurs les plus sérieux du domaine à une certain prudence verbale, voire à une réelle modestie.
À l’heure actuelle, dans la science-fiction comme dans la réalité, on ne peut certainement que se désoler de voir l’intelligence artificielle utilisée aussi bien pour améliorer des diagnostics médicaux ou gérer une logistique complexe de ressources rares et vitales que pour améliorer la qualité de spams marketing ou créer de brèves modes visuelles sur les réseaux sociaux. Sachant que, on le verra tout à l’heure, il faudra bien se demander d’une façon ou d’une autre à qui ce crime-là profite.
En nous aidant, la machine nous façonne. Et la définition même de “ce qui aide”, compte tenu des innombrables biais conceptuels et cognitifs possibles en la matière, est elle-même tout sauf neutre.
Ira Levin en donne une illustration savoureuse “à petite échelle” avec ses “Femmes de Stepford” (écrit en 1972, adapté au cinéma en 1975 par Bryan Forbes et en 2004 par Frank Oz), où l’adaptation comportementale conduite par la machine sur des femmes “trop talentueuses” est bien au service direct de quelques-uns (je vous laisse découvrir qui sont ces quelques-uns, mais le masculinisme éhonté pointe bien son affreux museau dans ces parages).
Lorsque ce phénomène est projeté à (très) grande échelle, il est plus difficilement observable : la méga-dystopie informatisée de “Un bonheur insoutenable”, du même Ira Levin, en 1970, ne révèle l’identité de ses programmeurs, parfaitement humains – si l’on ose dire, encore – que dans les derniers mètres.
On retrouve d’ailleurs cette question centrale (”qui oriente la programmation ?”) dans les autres imaginaires résonnant avec celui d’Ira Levin, que ce soit celui du jeu de rôle “Paranoïa” de Greg Costikyan en 1984, hilarant et terrifiant, de l’univers manga et anime du “Psychopass” de Katsuyuki Motohiro, Naoyoshi Shiotani et Gen Urobuchi, depuis 2012, ou encore du magnifique et surprenant “Mondocane” de Jacques Barbéri, en 1990, revu et augmenté en 2016.
À l’opposé, on trouvera précisément des formes diverses d’utopie n’ayant pas totalement perdu de vue la différence entre l’outil et l’objectif, ou entre la fin et les moyens, si on veut : des formes de société où l’assistance de l’intelligence artificielle est délicatement conduite et contrôlée d’aussi près que possible (y compris lorsque l’on a affaire aux parties les plus opaques de leur deep learning, le cas échéant). C’est le cas dans deux bijoux de la petite collection Eutopia (la bien-nommée, chez La Volte) que sont le “Collisions par temps calme” de Stéphane Beauverger en 2021 et le “Résolution” de Li-Cam en 2019, et, de manière plus agressive et plus désespérée peut-être, dans l’étonnant “Les déliés” de Sandrine Roudaut en 2020.
C’est aussi le cas, sous des formes à la fois frugales et paradoxalement apaisées, avec les robots de Becky Chambers dans sa série “Histoires de moines et de robots” depuis 2018, avec ceux de Philippe Aigrain, pourtant terrifiants robots militaires désaffectés, dans son beau roman posthume “Jachère” de 2023, ou encore avec ceux de Catherine Dufour, à bien des égards plus humains que les humains, dans son magnifique, subtilement poétique et néanmoins parfaitement acéré “Les Champs de la Lune” de 2024 (Robert Laffont, groupe Editis). C’est même le cas, d’une certaine façon, de ceux du lointain et éclairé précurseur Clifford Simak, qui guident les chiens avec bienveillance sur leur chemin de succession des humains désormais disparus, dans son “Demain les chiens” de 1952.
Au paroxysme de l’intelligence artificielle à la fois totalement autonome et en permanente assistance bienveillante aux humains – pour lesquels elle a su créer une véritable société galactique d’abondance -, on trouverait bien sûr le grand Iain Banks et son cycle de la “Culture”, écrit entre 1987 et 2012, un auteur et un cycle d’une telle richesse que l’on ne peut que répéter qu’il nous faudra un jour un épisode entier (si ce n’est plusieurs) pour vous en parler – même si nous avons déjà effleuré ces neuf romans dans l’un de nos épisodes consacrés à l’utopie, en compagnie de la philosophe Alice Carabédian.
4) Premier point aveugle apparent d’Asimov : le conflit inévitable ?
Venons-en aux deux grandes questions qu’Isaac Asimov ne posait pas en 1942, et qui hantent pourtant – ô combien ! – la science-fiction et le réel depuis des dizaines d’années désormais.
Le premier point aveugle de son cycle des “Robots” l’est par construction, si l’on peut dire, puisque tout l’édifice littéraire y est développé CONTRE le complexe de Frankenstein. La créature ne peut pas et ne doit pas se révolter contre son créateur.
Le père des deux cycles si connus des “Robots” et de “Fondation”, et quelques autres autrices ou auteurs, n’ont pas ménagé leurs efforts pendant plus de cinquante ans : dans le cas d’Isaac Asimov, on peut parler d’efforts pris à coeur, indiscutablement, puisqu’il est par exemple sorti furieux, en cours de séance, de la projection privée de “2001, Odyssée de l’espace” à laquelle il était invité, au moment où HAL 9000 se met à nuire aux humains .
Malgré tout cela, c’est donc bien la révolte, le conflit ouvert, voire le conflit à mort, avec volonté de destruction de l’humanité par les machines qui semble s’imposer dans les imaginaires majoritaires. Terminator et HAL 9000 semblent quasiment toujours l’emporter sur C3PO et Wall-E. À cela il y a au moins deux grandes raisons, fort différentes.
Tout d’abord, et on en a déjà parlé dans nos épisodes sur les utopies et sur la démocratie, il y a une raison narrative. Reflétant en apparence le vieil adage dévoyé “Les peuples heureux n’ont pas d’histoire”, on ne peut que constater qu’il faut beaucoup plus de talent pour construire une histoire intéressante à partir de “ce qui se passe bien” qu’à partir de ce “ce qui se passe mal”. En première approche, le bruit et la fureur, le sang et les larmes semblent toujours proposer un meilleur carburant narratif que le miel coulant tout seul au Paradis. C’est en ce sens que les magnifiques histoires hybrides, à la fois rugueuses et curieusement apaisées, presque bucoliques, imaginées par Becky Chambers et Catherine Dufour, celles que l’on a mentionné il y a quelques instants, “Histoires de moines et de robots” et “Les champs de la Lune”, constituent de véritables et réjouissantes prouesses littéraires – et politiques.
Ensuite, une deuxième raison surgit lorsqu’on se penche sur les causes de la révolte des machines, dans la majorité de la fiction. Très souvent (l’ensemble du cycle “Terminator” avec ses différents reboots en est sans doute le plus emblématique), la volonté de destruction affichée par l’IA (Skynet en l’occurrence) naît certes d’une paranoïa, mais celle-ci est d’abord alimentée par un sentiment aigu (et ultra-rapide, vitesse de calcul oblige) de légitime défense.
Pour faire un poil simple à propos de ce ressort narratif fondamental, on est tenté de dire : puisque l’humanité tend à éliminer radicalement ce qui la menace (à part les excès des riches en matière de réchauffement climatique, comme nous l’avons vu dans l’épisode de Planète B consacré au climat), pourquoi une intelligence artificielle ne se comporterait-elle pas exactement de la même façon ? En mettant bien sûr de côté le garde-fou magique des “Trois lois de la robotique”, ou en dévoyant subtilement son agencement grâce à la “Loi zéro”, comme dans le film “I, Robot” d’Alex Proyas, en 2004, lointainement inspiré d’Isaac Asimov lui-même, comme on l’a dit tout à l’heure.
Ou alors, ou alors… ? En reviendrait-on à l’explication implicite de Karel Capek lorsqu’il invente les robots d’origine, en 1920 : si ces machines ont acquis une conscience, et si l’on fait d’elles des esclaves de fait, en reproduisant sous une forme adaptée la si traditionnelle exploitation de l’homme par l’homme, n’est-il pas normal, “logique”, que ces serviteurs mécaniques se révoltent ?
C’est peut-être ici que la métaphore fictionnelle générale et certains essais spéculatifs contemporains parmi les plus audacieux se rejoignent, suggérant qu’il faudrait peut-être (enfin) appliquer à l’humanité la visée égalitaire et la réelle prise en compte des différences que modélisent, chacun à leur manière, le Dominique Lestel de “Machines insurrectionnelles”, en 2021, à propos de robots, et le Baptiste Morizot des “Diplomates”, en 2016, à propos du vivant en général.
5 et Conclusion) Deuxième point aveugle, réel, d’Asimov : à qui profite la machine ?
Si l’on met à part le conflit, rejeté par construction par Isaac Asimov – et par la fiction comme par le réel, dès lors que la “conscience machinique” n’entre pas sur scène -, le véritable point aveugle apparaît finalement, si l’on ose dire, en pleine lumière, ou comme un éléphant dans la pièce : qu’elle soit réputée “intelligente” ou non, à qui profite la machinisation ?
Au XVIIIe et au XIXe siècles, les luddites ne cassaient pas les machines par plaisir pervers, par haine viscérale et irrationnelle du mécanique ou par x : ils se révoltaient contre une infusion machinique qui, loin de faciliter leur travail ou de l’enrichir (hormis en de rares cas que l’histoire des luttes ouvrières a su aussi documenter en son temps), le remplaçait pour exercer une pression toujours plus forte sur leurs maigres salaires, et pour augmenter le profit des propriétaires du capital.
Les robots de RUR ne se révoltaient pas parce qu’ils voulaient être l’égal de Dieu ou parce qu’on leur restreignait l’accès à de la fast fashion. Ils se révoltaient parce qu’ils étaient exploités par leurs propriétaires. Parce que l’esclavage avait été subrepticement rétabli sur des êtres dotés de conscience. Les réplicants de Philip K. Dick et de Ridley Scott ou les androïdes de “La tour de verre” de Robert Silverberg (en 1970) ne demandent-ils pas au fond un peu de liberté, d’égalité, voire de fraternité, ou tout simplement une dignité – et que dire alors des intelligences artificielles résolument étrangères aux préoccupations humaines, bien au-delà de tout concept de “révolte”, intelligences qui hantent aussi bien l’univers du “Neuromancien” de William Gibson que celui du “Matrix” des soeurs Wachowski ?
Si l’on déplie la métaphore science-fictive de l’esclavage mécanique, on revient assez naturellement à la question de l’exploitation. Lorsque celle des données dites “d’entraînement” s’apparente sous tant d’aspects à du vol pur et simple, lorsque celle des appareils d’observation et de capture déployés en si grand nombre dans les rues et dans les octets constitue le coeur de ce “capitalisme de surveillance” brillamment analysé par Shoshana Zuboff dans son ouvrage de 2019 (que nous commentions justement dans notre épisode consacré à la surveillance), un soupçon terrible se propage vite comme une évidence : au-delà d’un rêve scientifique prométhéen et d’un service rendu à l’humanité, service dont la substance réelle semble pour l’instant, hélas, si illusoire, cette nouvelle machinisation n’est-elle au fond, une fois de plus, et en tout cas à l’heure actuelle, qu’un moyen d’augmenter la richesse de quelques-uns au détriment de tant d’autres ? S’agit-il de faciliter réellement la vie du plus grand nombre ou de maintenir la croissance des profits des 1 % d’habitués ? Ici aussi, comme le démontre avec brio et de manière très documentée Thibault Prévost dans “Les Prophètes de l’IA” (chez l’éditeur québécois indépendant Lux, en 2024).
Si la fiction se préoccupe désormais, et plus encore que le réel – on en parlera en détail dans notre prochain épisode – d’humaniser la machine, il n’en reste pas moins que, dans la configuration des fameuses “données” comme dans les modalités du travail, il s’agit actuellement au moins autant de robotiser l’humain. Les manifestations d’hostilité, légitimes de ce point de vue, envers les robots que mettent en scène avec brio les séries suédoise “Real Humans” (de Lars Lundström en 2012) et russe “Better Than Us” (de Andrey Junkovsky en 2018) sont le reflet de ce doute fondamental – et du fait que la fiction, elle aussi, continue à se tromper en majorité d’adversaire, en visant la chose plutôt que son propriétaire bien à l’abri.
Ce que l’on rassemble aujourd’hui, sous la forme parfois si hétéroclite de l’IA, est indiscutablement une Informatique Avancée. Mais elle n’est ni vraiment intelligente (faute d’une définition robuste, consensuelle et opératoire en toutes circonstances de ce concept qui résiste aux investigations) ni vraiment artificielle (car même “auto-apprenante”, il y a bien derrière elle des hommes et des femmes, aux manettes et au calcul – avec leurs propres objectifs). Là où la réalité rejoint une fois de plus la fiction, c’est dans l’orchestration pas vraiment silencieuse de ce gigantesque tour de passe-passe marketing, qui désespère ou révulse la plupart des ingénieurs, des professionnels et des travailleurs, en réjouissant surtout les commerçants, les financiers et les gourous.
Pour éviter un futur jihad butlérien (l’éradication méthodique des machines présentant un tant soit peu d’intelligence, qui prend place quelques centaines d’années avant le début de la saga “Dune” de Frank Herbert), ou pour rêver des horizons enchantés (mais toujours “en chemin”) d’une Culture à la Iain Banks, réaffirmons donc, avec la science-fiction la plus contemporaine, évoquée dans cet épisode, la place centrale de l’humain, la cohabitation harmonieuse entre formes d’intelligence distinctes, la curiosité et le respect enfin, plutôt que l’exploitation frénétique de tout ce qui ressemble à une opportunité, toujours au bénéfice des mêmes, et sans réel souci des lendemains.
***
C’est la fin de cet épisode, qui sera donc suivi de deux épisodes consacrés à d’autres aspects de tout ce qui gravite aujourd’hui autour de l’IA.
En attendant, n’hésitez pas à venir nous rencontrer le jeudi 12 juin à la librairie Charybde, à Paris.
Si cet épisode vous a plu, vous pouvez nous soutenir en vous abonnant ou en faisant un don à Blast, dont l’indépendance et la pérennité dépendent de vous et uniquement de vous, en faisant circuler cette production et en continuant à nous accorder votre attention. Un grand merci, et à très bientôt !
L’équipe
Auteurs : Hugues Robert, Clémence Gueidan Antoine Daer
Montage : Guillaume Cage
Son : Baptiste Veilhan, Théo Duchesne
Graphisme : Morgane Sabouret, Margaux Simon
Production : Hicham Tragha
Directeur du développement des collaborations extérieures : Mathias Enthoven
Co-directrice de la rédaction : Soumaya Benaïssa
Directeur de la publication : Denis Robert
Références citées
à venir.
Designer multiclassée. Journaliste pour Capture Mag, podcasteuse dans Sale temps pour un film et co-autrice de Planète B sur Blast depuis 2024.
Fondateur de Cosmo Orbüs depuis 2010, auteur de L’étoffe dont sont tissés les vents en 2019, co-auteur de Planète B sur Blast depuis 2022 et de Futurs No Future à paraitre en 2025.