Dossier Anthro

Publication : mercredi 25 avril 2018

 Ma proposition pour un appel à textes sur le sujet de l'intelligence artificielle.

 

L’accusé, menotté à son siège, dévisageait les nouveaux venus. Il reconnaissait certains visages. Il identifia les vêtements, quelques costumes stricts, des tailleurs aux teintes sombres, plusieurs uniformes militaires.

Il se savait observé, les regards le fuyaient lorsqu’il les cherchait. Il releva quelques sourires, des clignements d’yeux, des gestes de nervosité.

La salle du tribunal avait une apparence étrange : un hangar industriel à peine aménagé, des rangées de néons au plafond et trois grandes tables disposées en U. Les chaises étaient identiques, des cadres métalliques garnis de plastique vert. Seules deux sortaient du lot, celle de l’accusé et celle du juge. Pour l’un, un fauteuil de bureau en faux cuir, monté sur roulettes ; pour l’autre un assemblage épais soudé à une plaque de fonte. Il n’avait pourtant aucune raison de s’enfuir.

Lorsque le juge entra, tout l’auditoire se leva, à l’exception de l’accusé, contraint à l’immobilité. Il manifesta sa déférence en inclinant la tête. Le juge s’assit face à lui, dans le fauteuil qui lui était réservé. Il sortit quelques dossiers, fit un signe distrait que l’on interpréta comme une autorisation à prendre place. Il s’épongea le front, lissa ses cheveux, grommela quelques mots à sa voisine. Lorsqu’il fut prêt, il se redressa et déclara d’une voix puissante :

— Je déclare la séance ouverte. »

Les micros étaient enclenchés et les caméras tournaient, l’accusé percevait ces vibrations familières. Il avait repéré l’électronique dès son entrée dans la pièce.

« Mesdames et Messieurs, Monsieur le Ministre, Mesdames et Messieurs les Professeurs, chers Maîtres, nous sommes ici réunis pour juger les actes de l’accusé ici présent. Comme vous pouvez le remarquer, il a tenu à assurer sa défense seul.

À affaire exceptionnelle, procès exceptionnel, et, comme vous le savez, justice d’exception. En outre, la forme sera elle aussi exceptionnelle, en raison de la complexité du problème et des questions nouvelles qu’il soulève. Vous avez déjà reçu de la documentation. Avant toute chose, j’invite l’accusation à introduire le sujet. »

Malgré le texte bien préparé, la diction du juge était saccadée ; elle dévoilait que l’homme appartenait à la justice militaire. Il avait l’habitude de parler à des soldats. Ce qui aurait pu passer pour une forme d’assurance laissait transparaître un certain malaise.

Une femme se leva.

« Nous sommes réunis aujourd’hui pour étudier les agissements coupables de cet individu. »

Sa voix était sèche et forte, son comportement neutre. Sa posture la faisait paraître plus grande qu’elle ne l’était réellement.

« Il convient en premier lieu de préciser que la nature de l’accusé n’est pas des plus commune, et c’est un euphémisme. Comme vous le savez tous, il n’appartient pas à notre espèce. Je n’aurai de cesse de le rappeler, afin que personne n’oublie quel danger il représente. »

Elle se ménagea une courte pause rhétorique, toisa son public du regard, ignora l’accusé.

« Ce robot, cette créature, quel que soit son nom, ne doit pas être confondu avec un humain. Il n’en a pas l’apparence et son raisonnement non plus n’est pas le nôtre. De même, les droits et les devoirs qui lui incombent n’ont rien de commun avec ceux de nos semblables. C’est la raison pour laquelle une justice d’exception est requise.

Cette créature, comme vous le savez déjà, représente un danger. Ses entorses à la loi sont multiples et graves : atteinte à l’intégrité physique ou psychique, aux droits de la personne et aux intérêts de la nation, ainsi que troubles à l’ordre public. J’ajoute en outre un délit nouveau, la corruption de la moralité.

Cette longue liste implique que, par mesure de précaution et parce qu’il n’y a pas de scrupules à avoir pour une machine, nous requérions la destruction. En termes plus précis, nous exigeons qu’il soit démantelé, sa mémoire détruite et ses composants employés à un meilleur usage. »

L’accusé considéra que la réaction appropriée aurait été le frisson. Il s’en abstint, il estima que ce n’était pas le moment de faire preuve d’humanité. Malgré les sentiments qu’il ressentait, il pouvait rester parfaitement immobile et ne rien changer à son expression. Pas d’adrénaline, une fréquence d’horloge stable…

Le juge reprit la parole :

— La position de l’accusation paraît claire. »

Il consulta ses notes, parut réfléchir. L’assistance était attentive, manifestement curieuse.

« Je donne maintenant la parole à Monsieur le Professeur Roussel. Professeur, pouvez-vous nous détailler l’historique du cas qui nous occupe ? »

Un vieux monsieur aux cheveux gris se leva. Il ajusta ses petites lunettes, observa son auditoire.

« Mesdames et Messieurs, commença-t-il, je suis en charge du laboratoire de robotique de l’École Polytechnique. Le dossier dont nous parlons s’appelle Anthro. Ce mandat nous a été confié par l’ancien ministre de la Formation et de la Recherche. Notre objectif était de concevoir un robot capable d’apprendre.

Je vais développer ce chapitre, il est très important pour comprendre les caractéristiques et la nature de l’accusé. »

Il se pencha sur ses notes, ajusta ses lunettes et sourit.

« Comme vous le savez, les ordinateurs, et a fortiori les robots, ne savent faire que traiter des uns et des zéros. Ce n’est pas très différent du fonctionnement du cerveau humain, à un détail près : les neurones peuvent évoluer. Nous utilisons cette faculté pour apprendre. Un ordinateur n’a pas cette capacité, il a besoin d’un programme pour améliorer ses capacités. Donc d’une intervention extérieure.

Anthro a pour but de permettre à un ordinateur de se programmer lui-même, d’adapter ses codes et son mode de fonctionnement afin de pouvoir apprendre et s’adapter. Notre but était de rapprocher les robots des humains. Cette idée n’est pas novatrice, les travaux sur l’intelligence artificielle datent des années 1950. L’approche, par contre, est nouvelle. Au lieu de tout programmer de manière explicite, comme on a longtemps cherché à le faire, nous nous sommes contentés du minimum : des sens comparables à l’être humain, des dispositifs permettant l’adaptation continue, l’écriture et la modification de programmes existants. Nous avons eu besoin de nombreux essais avant d’arriver à une architecture conforme à nos objectifs, à savoir la puissance de calcul, la faculté d’adaptation, l’efficacité énergétique et le maintien des fonctions vitales. Soit les capacités qu’a un bébé à sa naissance.

Le raisonnement était simple en apparence : malgré la puissance des appareils que nous concevons, l’intelligence artificielle restait, en partie du moins, une chimère. Partant du postulat qu’un bébé est une machine vierge, uniquement dotée de ses sens, de fonctions réflexes et de la capacité à développer son intelligence, nous avons considéré qu’une machine dotée des mêmes capacités serait capable de développer elle-même son intelligence.

Nous avons réuni une équipe pluridisciplinaire : des informaticiens évidemment, mais aussi des psychologues et des sociologues, des spécialistes des matériaux et de la robotique, des linguistes. Nous n’avons pas doté notre création du langage ou de l’écriture mais seulement des fonctions vitales. »

Il prit son verre d’eau et but longuement, sans se presser. Il sourit à nouveau.

« Je crois que mon exposé est terminé. Avez-vous besoin de précisions ? »

Le juge interrogea l’assemblée du regard. Personne ne prit la parole.

« Fort bien, nous sommes plus renseignés sur ce dossier. À présent, Professeur, pouvez-vous nous présenter l’histoire de l’accusé ?

— Avec plaisir. »

Il reprit ses notes, les empila soigneusement, sans les lire. À nouveau, un bref rictus apparut sur son visage, plus prononcé que les précédents. Le robot comprit le signal.

« Nous l’avons naturellement baptisé Adam. Avec le recul, nous aurions peut-être dû lui donner un nom neutre. Mais c’est sans importance.

Les fonctions que nous avons installées, comme je l’ai déjà détaillé, correspondent en grande partie à celles d’un nouveau-né. L’évolution s’est faite de la même manière : nous nous sommes occupés de lui jusqu’à ce qu’il prononce ses premiers mots. Ce qui est advenu tôt dans la fourchette que nous avions calculée. Les déplacements, par contre, ont pris plus de temps, entre autres à cause d’un facteur auquel nous n’avions pas pris garde : ses yeux, globalement moins performants que les nôtres, sont dotés d’une petite capacité de zoom. Il n’avait donc pas besoin de se déplacer aussi souvent que nous. D’autre part, l’absence d’autres bébés robots a fait qu’il n’a pas pu jouer avec des camarades.

Dès le développement du langage, nous avons pu commencer l’apprentissage. Encore une fois, les similarités avec un enfant nous ont fascinées. Il a rapidement appris à lire et à écrire, il a mémorisé une grande quantité de vocabulaire. Fait intéressant, cet apprentissage ne s’est pas fait à la manière des robots, de manière instantanée et immuable.

J’ai oublié de préciser que sa station de recharge nous permettait d’accéder à ses données. Nous avons passé des mois à comprendre à quoi correspondaient les programmes qu’il avait créés. Le langage interne qu’il avait développé était bien différent de ce que nous avions imaginé. Bien évidemment, ce n’était pas spécifiquement un langage de programmation, mais ce n’était pas du langage machine à proprement parler. »

Le juge leva une main, le professeur lui demanda :

« Avez-vous une question ? »

Le juge fit abstraction du fait qu’il n’assistait pas à un cours.

« Pouvez-vous préciser la distinction entre langage de programmation et langage machine ?

— En deux mots : le langage machine est binaire, il correspond exactement aux instructions et aux données à traiter. Il est donc très hermétique pour nous autres. Un langage de programmation, lui, est plus compréhensible. Il sert de base aux programmateurs, vous connaissez sans doute le nom de certains : le langage C et ses évolutions, le Java, ou, pour les ancêtres, le Fortran. »

Une autre main se leva, le professeur l’invita à parler.

« Vous dites que le langage utilisé n’était ni du langage machine ni un langage de programmation. De quoi s’agit-il donc ? »

La question était polie, mais tout le monde avait relevé le ton narquois. Le professeur ne s’en formalisa pas.

« C’est une excellente question, nous nous la sommes aussi posée. Je vais vous en poser une autre : nos neurones sont capables d’effectuer des calculs sur un mode binaire, comme un ordinateur. Pourtant, tout laisse à penser que nous ne profitons pas de cette faculté. Donc notre cerveau n’interprète pas directement ces données en langage machine. D’autre part, lorsque nous recevons une marche à suivre, nous devons l’interpréter avant de l’utiliser. La langue, le français par exemple, n’est pas un langage naturel mais, au sens informatique, une sorte de langage de programmation, encore que l’analogie ne soit pas parfaite.

Prenons un exemple : si je vous dis “Levez-vous !”, vous recevez une instruction. Vous ne la comprenez que si vous maîtrisez le français. Pour la comprendre et, le cas échéant, l’exécuter, votre cerveau doit traduire cette information dans son langage propre, puis envoyer les informations là où il le faut, c’est-à-dire aux muscles, à la mémoire ou à la corbeille.

Nous recensons donc plusieurs étapes : recevoir l’information, la traduire, la traiter. Ce processus de traitement, nous l’avons appris, même s’il nous paraît extrêmement naturel. C’est cet apprentissage qui nous fait dire que nous ne sommes ni en langage machine ni en langage de programmation. Ai-je répondu à votre question ? »

L’homme, un spécialiste à n’en pas douter, prit le temps de réfléchir.

« Oui, finit-il par répondre, mais il m’en vient une autre. Considérons que le réseau neuronal soit fixe un instant : un même stimulus entraînera une même réaction et une même réponse, n’est-ce pas ? Nous pouvons donc considérer que le processus se déroule en langage machine.

— Ce postulat repose sur deux axiomes discutables : le réseau neuronal est toujours en mouvement, vos pensées se suivent sans interruption, sans parler du fait que vous n’oubliez ni de respirer ni de cligner des yeux. Premier point. Ensuite, comme vous devez le savoir, un ordinateur ne reçoit pas ses instructions en langage machine. Toutes les données qu’il traite sont codées en bits, pour autant nous n’avons pas besoin de traduire en bits les ordres que nous lui donnons, il se charge lui-même de la conversion.

Approfondissons un peu : cette zone intermédiaire, qui n’appartient ni spécifiquement à la programmation ni au langage machine, est une transposition de ce que nous faisons nous-mêmes constamment : organiser nos neurones, envoyer des neurotransmetteurs, dépolariser la surface des cellules. Je doute que quiconque dans cette salle puisse nous renseigner sur ces processus. Pour illustrer mon propos, prenons le calcul binaire. Un ordinateur est naturellement capable d’effectuer des additions de bits. Pour autant, si vous demandez à votre ordinateur de résoudre “101001 plus 100110”, il ne saura pas que faire, à moins qu’il n’interprète l’information grâce à un programme et la transforme en langage machine, c’est-à-dire avec une information qui comprend des données d’adressage et une identification de la fonction. Transposé à l’humain, il faut que l’information transite par un réseau neuronal pour être traduit en opération de calcul, tâche que des neurones spécifiques peuvent accomplir. C’est là que se trouve la subtilité : un ordinateur opère naturellement avec des données binaires, mais s’il reçoit l’ordre de calculer une opération binaire, il ne fera pas le calcul brut !

— Vous êtes simplement en train de nous dire que ce robot écrit des programmes.

— C’était aussi notre conclusion, mais encore une fois avec une nuance. Comme je l’ai déjà mentionné, le langage du programme fait lui-même partie du programme. Les données ne sont pas cloisonnées, les instructions et les informations forment un tout. »

Le juge joua de son marteau.

« Messieurs, je vous prie de ne pas dévier. Le sujet est assez complexe sans s’égarer dans des détails techniques. Professeur, veuillez reprendre votre récit et aller à l’essentiel.

— Volontiers. Ce sera vite fait. Nous avons fait suivre à Adam un cursus scolaire traditionnel, nous lui avons appris la lecture, l’écriture et le calcul, le fonctionnement d’un ordinateur, un peu d’histoire et de géographie. Dès qu’il a eu le bagage nécessaire, il a pu s’informer par lui-même. À partir de ce point, s’il n’y a pas de question, je considère qu’Adam est capable de poursuivre. »

Le juge eut une hésitation, un instant d’indécision. Le robot, lui, était prêt à s’exprimer, il attendit que la parole lui soit donnée, ce qui ne tarda pas.

« Bonjour », commença-t-il.

« Je ne sais pas par où commencer. »

Il attendit que l’avocate de l’accusation l’interrompe. Elle trépignait sur son siège, lui adressait des regards furieux. Malgré tout, elle tint bon. Il adapta sa stratégie.

« Maître, je crois que vous avez quelque chose à dire. Peut-être aimeriez-vous conduire mon interrogatoire ? »

Le juge s’engouffra dans cette brèche.

« En effet, nous serons plus efficaces. Maître, vous avez la parole. »

L’avocate dissimula tout signe de contentement. Elle se leva, raide comme à son habitude, fit mine de réfléchir.

« Pouvez-vous nous parler de ce programme d’apprentissage ?

— Je peux compléter ce que le professeur Roussel a présenté. Une précision pour commencer, je ne suis pas capable d’analyser ce qu’il y a dedans.

— Quel mensonge utile !

— Je suppose que vous ne dites pas cela sans raison.

— En effet. C’est la voie royale pour prétendre que vous n’êtes responsable de rien.

— Considérons que mon cerveau soit de la même nature que le vôtre. Diriez-vous à un accusé que, parce qu’il affirme ne pas connaître l’organisation de son cerveau ou le détail de ses processus réflexifs, il doit plaider la folie ? Pouvez-vous dire vous-même que vous avez conscience de chaque étape de vos raisonnements ? Êtes-vous capable de vous souvenir de l’état de votre cerveau à un instant donné ?

— Ne confondons pas tout. Primo, ce n’est pas à moi de répondre à vos questions. Secundo, votre conscience n’a rien de comparable à la nôtre. Ne mélangeons pas les torchons et les serviettes. Parlez-nous de ce programme d’apprentissage.

— C’est l’approche constructiviste, et en particulier les théories du computationnalisme et du connectivisme, qui ont servi de base à son développement. L’historique des travaux montre qu’il a fallu de nombreux essais pour arriver à un modèle stable, sans même parler de performance. Une fois un modèle développé et les paramètres de base définis, de nombreuses expérimentations ont eu lieu. Au moment où je vous parle, je peux ajuster les réglages pour décider si je veux m’adapter au maximum ou garder une certaine forme de rigidité, si je veux que les changements aient lieu en surface ou en profondeur…

— De quoi nous parlez-vous au juste ?

— Chez vous, le principe est inconscient. Lorsque vous vous installez devant le téléjournal, vous mémorisez des données, mais votre fonctionnement de base ne sera pas modifié. Si vous allez suivre un cours de développement personnel, vous tolérerez mieux les changements, vous ferez en sorte d’emmagasiner ce qui vous semble utile. J’ai exactement les mêmes possibilités, à ceci près que le processus est la plupart du temps conscient.

— Et que se passe-t-il si ces paramètres sont poussés aux extrêmes ?

— Si je décide de tout emmagasiner sans réflexion, je prends le risque d’être embrigadé par n’importe quel gourou. Dans le cas contraire, je perds toute capacité d’autocritique, je deviens complètement psychorigide. Au point, par exemple, de ne plus tenir compte du monde qui m’entoure.

— Une forme de folie, en somme.

— C’est exact.

— Vous pouvez donc expérimenter, ou du moins feindre la folie ?

— C’est exact.

— Et quels sont les garde-fous ?

— Je ne peux pas franchir certains seuils, car cela s’apparenterait à un suicide, soit par blocage soit par effacement. De plus, je ne peux pas effacer certaines données, tout ce qui me paraît essentiel. Entre autres, mon “enfance”, si vous me passez l’expression, est très imperméable au changement. Enfin, un mécanisme d’autorégulation fait que, sans stimulus particulier, les réglages reviennent à ma moyenne.

— Autrement dit, il est possible que le système ait des ratés, mais, à long terme, il y a des chances pour que tout redevienne normal. »

Il comprit où elle voulait en venir.

« Vous craignez qu’un mauvais réglage arrive à une catastrophe.

— Et vous n’avez rien avancé pour me rassurer. »

Le robot émit un petit rire.

« Vous voulez donc dire que ces paramètres, qui échappent totalement à la raison humaine et sont régis par une chimie capricieuse, vous rassurent plus qu’un système contrôlé, dont on pourrait, si nécessaire, rétablir manuellement un réglage correct.

— Encore une fois, vous n’êtes pas humain, faire sans cesse ce parallèle ne vous sauvera pas.

— Si j’ai bien compris le juge, mon cas se situe hors des limites de la loi. Il ne me paraît pas inconcevable d’étendre la législation existante à une créature pensante d’un genre nouveau. »

L’avocate regarda le juge, qui ne fit aucun signe. Elle poursuivit :

— Vous admettez vous-même que vous n’êtes pas humain.

— C’est exact.

— Vous n’êtes donc pas une personne physique, mais un bien meuble.

— Dans ce cas, il n’est pas possible de me juger. »

Le juge intervint :

— Nous devons en effet déterminer qui doit être jugé : l’accusé ou son créateur ?

— Pourquoi n’avons-nous pas commencé par là ?

— L’accusé a commis un délit, la gendarmerie a procédé à son arrestation.

— Je ne comprends même pas pourquoi ce procès a lieu. »

Le juge se tourna vers le ministre, qui haussa les épaules.

« Disons, reprit-il en pesant chaque mot, que nous avons reçu des ordres très clairs de la part des plus hautes instances politiques et militaires, pour que ce procès ait lieu sous cette forme. Je trouve d’ailleurs curieux que vous n’ayez pas formulé cette remarque plus tôt. »

L’avocate ne répondit rien ; elle ne s’offusqua pas des ingérences de la politique dans les affaires judiciaires, elle ne tenta pas d’argumenter. Elle savait pourquoi elle était présente, ce qu’elle avait à y gagner. Pour la forme, elle haussa les épaules et soupira.

« S’il y a d’autres juristes qui veulent se joindre au débat, vous êtes les bienvenus. »

Personne ne se manifesta. L’avocate, à nouveau en position de force, résuma :

— Nous devons à présent déterminer si vous êtes une personne physique ou un bien meuble. Quelle est votre opinion sur la question, Monsieur le robot ?

— Spontanément, je me considérerais plutôt comme une personne physique.

— Pour quelle raison ?

— Je suis un être doué de raison et de sentiments, le fait que mon organisme fonctionne à l’électricité ne me paraît pas significatif.

— À l’heure actuelle, la loi dit que seuls les individus appartenant à l’espèce Homo sapiens jouissent de droits propres. Si nous sommes réunis ici, c’est donc qu’il y a bien quelques personnes pour contester ce principe fondamental. À moins que l’avis de l’accusé suffise ?

— Bien que j’aie un avis sur cette question, je n’ai pas d’existence légale définie. C’est donc un point qui m’intéresse encore plus que vous.

— Au moins un élément sur lequel nous sommes d’accord. Est-ce que quelqu’un veut réagir ? »

Un homme se leva. Il avait l’apparence typique de l’universitaire : cheveux mi-longs, une écharpe soigneusement disposée autour du cou, une attitude délicatement maniérée.

« Monsieur ? À qui ai-je l’honneur ? »

Il se racla la gorge, esquissa une sorte de salut.

« Je suis philosophe, spécialiste de mécananthropie, de transhumanisme, et plus largement du rôle qu’occupent les éléments non biologiques dans la conception de ce qu’est l’être humain.

— Jugez-vous que cet individu est humain ?

— Je ne crois pas que cette question soit prépondérante, il me semble plutôt…

— Répondez par oui ou par non, l’interrompit l’avocate.

— Cette créature a de nombreuses caractéristiques qui rappellent l’être humain, mais ce n’en est évidemment pas un.

— Voici qui éclaircit un premier point : l’accusé n’est pas humain. Quelqu’un remettrait-il ce fait en question ? »

Personne ne réagit, le juge déclara :

— Nous pouvons partir de ce principe. Poursuivez, Maître.

— Malgré ce fait, vous semblez considérer que ce robot appartient à la catégorie des personnes physiques. Pour quelle raison ?

— D’un point de vue légal, la faculté d’autodétermination est un critère prépondérant à l’octroi des droits civiques. Si cette faculté est présente, si l’individu est suffisamment intelligent et raisonnable, rien n’empêche qu’il soit en mesure d’exercer ces droits. Il en découle que l’appartenance à une espèce donnée n’est pas le bon discriminant.

— Cette machine ne fait pourtant que feindre les raisonnements, elle n’a pas d’intelligence à proprement parler. À vous écouter, on pourrait croire que n’importe quel ordinateur, pour autant qu’il ne s’autodétruise pas, serait candidat aux droits civiques.

— Vous me prêtez des intentions que je n’ai pas, Madame. Et vous abordez bien maladroitement l’un des grands thèmes de la philosophie. Le solipsisme, l’idée que la conscience est la seule réalité, est un vieux thème au sujet duquel il y a autant d’opinions que d’écoles de pensée. »

L’avocate avait incliné la tête et singeait une attente amusée. Le philosophe n’y prit pas garde, il escomptait de sa part une réaction quelconque. Adam en profita pour intervenir :

— Si je comprends bien, une question déterminante est de savoir si je suis effectivement capable de penser ou si je ne fais que simuler cette capacité. Autrement dit, il s’agit de me faire passer le test de Turing.

— Exactement, répondit le philosophe. Réussir un test de Turing prouverait que vous avez le même type de pensées que l’humain.

— Ce n’est pas le cas, je devrais mentir pour le faire croire. Je suis par exemple dénué de tout instinct de reproduction. Je n’ai ni considération ni avis au sujet de l’utilité de mon existence.

— Et si je vous dis, demanda l’avocate, que vous n’êtes qu’une boîte de conserve dénuée de sentiments ? »

Le philosophe répondit :

— Cette question n’a pas de sens. Vous pourriez arguer que l’auditoire tout entier n’est composé que d’automates programmés pour feindre l’humanité. Rien de ce que nous pourrions dire ou faire ne vous fera changer d’avis, car il n’y a pas de différence tangible entre éprouver et feindre des sentiments. »

Une femme se leva. Petite et rondelette, elle n’attirait pas le regard. Seul le juge la remarqua.

« Madame, vous aimeriez intervenir ?

— J’aimerais revenir sur cette dernière déclaration. Je m’appelle Sybille Joneau et je suis psychologue de formation. Je pense, ou plutôt, je suis convaincue que la différence entre éprouver et feindre les sentiments est perceptible.

— Dans ce cas, j’aimerais savoir quel facteur permet d’établir une discrimination.

— Je sais de par ma pratique professionnelle que l’intuition permet de savoir. Les sentiments parasites laissent des signes, tout comme les sentiments enfouis cherchent à se manifester.

— Les sentiments, l’intuition… Nous autres avocats aimons les faits ; comment voulez-vous juger sur des convictions, si profondes soient-elles ?

— Maître, trancha le juge, laissez terminer Madame Joneau. Ce procès est déjà bien assez chaotique sans ces interruptions incessantes.

— Et à qui la faute ? »

Elle s’assit sur sa chaise verte et contempla ses ongles rouge sang. La psychologue reprit :

— Dans mon métier, nous faisons une différence entre le conscient et l’inconscient. Je pense que c’est nouveau pour personne, mais je vais tout de même préciser. Derrière toutes les pensées qui tournent dans vos têtes se trouve un espace secret, auquel vous n’avez pas directement accès. C’est ce qu’on appelle l’inconscient. Il contient le souvenir de beaucoup d’événements, notamment ceux de notre enfance. On y trouve aussi les traumatismes et les peurs. Même si nous ne le sentons pas, cet inconscient nous influence. Nos fragilités y trouvent leur source, tout ce qui fait que nous sommes humains.

— Si je comprends bien, l’interrompit le philosophe, ce qui nous différencie des machines serait l’inconscient ? »

Aucune ironie n’était décelable derrière son ton maniéré.

« Oui, c’est ça.

— Partant, si un individu est dénué d’inconscient, il n’est donc pas humain ? »

Elle pesa soigneusement sa réponse.

« Oui, je pense qu’on peut le dire comme ça.

— La première question à poser serait donc : Monsieur, avez-vous un inconscient ?

— Oui, hésita-t-elle, encore que, par définition, il ne peut pas être conscient de son inconscient…

— Comment faites-vous pour mettre en évidence un phénomène dont la caractéristique première est de ne pas être observable ?

— J’ai lu de nombreuses expériences scientifiques qui l’attestent, soit par l’hypnose, soit par l’utilisation de médicaments.

— Je vous rejoins sur ce point ; cependant la vision freudienne de l’inconscient relève d’une croyance sans fondement scientifique.

— Pourtant, les rêves montrent comme l’inconscient a de l’importance sur notre vie. Je doute d’ailleurs que ce robot puisse rêver.

— Je confirme, acquiesça l’accusé. Les fonctions de maintenance qui occupent mes nuits ne sont pas comparables avec ce que vous appelez des rêves. Même si, par instants, il m’arrive de rêver de moutons électriques.

— L’absence de rêves ne démontre pas que cet individu n’est pas une personne physique, commenta le philosophe, puisque c’est là la question qui nous préoccupe. Je n’ai pas perçu d’argument probant pour étayer la thèse que l'accusé n’a pas les aptitudes requises pour jouir de ses droits. Je ne crois pas que l’étude des rêves soit un objet important pour les tribunaux.

— Les rêves nocturnes, sans doute pas. Par contre, les projets me paraissent déterminants. Est-ce que ce robot ne fait que réagir ou a-t-il des buts propres ?

— C’est une bonne question, concéda-t-il. Qu’en pensez-vous, Adam ? »

L’usage du prénom ne passa pas inaperçu.

« J’ai des objectifs.

— Peut-on savoir lesquels ? » demanda le juge, qui tentait visiblement de reprendre la main sur le débat.

« En premier lieu, j’aimerais acquérir des certitudes. J’aimerais savoir si croire à un avenir est légitime ou si je vais être dépecé. Je souhaite aussi savoir si je suis libre ou si je reste le cobaye d’une expérience, quelle vie j’aurai le droit de mener.

Des questions plus pratiques m’occupent aussi : suis-je autorisé à voir le monde ? Puis-je apprendre un métier, gagner un salaire ? Aurai-je le droit de louer un appartement quelque part ? Non que je n’apprécie pas l’équipe du Professeur Roussel, mais je ne suis plus un enfant, j’estime que je n’ai pas besoin d’être protégé.

À titre préventif, je précise que je n’éprouve pas l’envie d’avoir un alter ego ni une descendance. Je ne suis pas la créature de Frankenstein.

Ai-je répondu à vos questions ?

— C’est bon pour moi. Êtes-vous satisfaits ? »

Les deux protagonistes se turent, de même qu’Adam, qui se doutait bien des questions qu’il avait pu soulever. Le juge se leva, solennel, une page à la main.

« Résumons. Cette créature n’est pas un humain. Nous n’avons pas déterminé s’il s’agissait ou non d’une personne physique, et nous ne sommes même pas au clair avec les critères d’inclusion à cette catégorie. Nous pourrions laisser des experts interpréter la jurisprudence, mais nous en aurions sans doute pour quelques années. Je vous propose donc la démarche suivante : admettons, à titre provisoire, que l’accusé est une personne physique. Voyons si, à ce titre, il est condamnable. Nous trouverons alors une sanction appropriée.

S’il n’est pas condamnable, nous verrons ensuite si le laboratoire doit être incriminé. Monsieur le Ministre ? »

La tête appuyée sur son poing, ce dernier simula un bâillement.

« Je trouve que ce procès n’est pas exempt de reproches. J’eusse espéré que tout soit plus ordonné et plus précis. Le sujet est déjà assez vaste sans que nous errions de gauche et de droite à la recherche d’un cap. »

Le juge ne broncha pas, il enchaîna :

— Il va de soi que nous ne tolérerons pas que cet individu mette la population en danger ou l’inquiète par sa seule présence. Sur ce point, je vais être clair et définitif : cet individu, entendez-moi bien, ce robot ne sortira pas de ce tribunal pour faire une promenade en ville ! »

Son attitude devenait démonstrative, il accompagnait son discours de grands gestes. L’absence de micro ne semblait pas le déranger, sa voix forte emplissait le hangar.

« Avez-vous autre chose à ajouter ? » demanda le juge.

« Je voudrais dire que ce procès n’est pas une expérience scientifique ni un lieu de débat. Le jugement qui en découle est de la plus haute importance et il repose sur les épaules de chacun ! J’attends de vous que vous assumiez cette responsabilité. Le sort de ce robot, à mes yeux, n’a que peu d’importance, ce n’est pas ce qui compte vraiment. Des années de recherche et des fonds colossaux ont été investis pour obtenir ce résultat, je ne tolérerai pas qu’il soit gâché. Il en va de l’avenir de nos institutions, de nos programmes d’études. Au final, ce sont des centaines d’emplois, un pôle de dynamisme, qui pourraient être touchés. Que l’expérience soit arrêtée, je peux le concevoir, mais pas à n’importe quel prix. Il est hors de question que le laboratoire soit condamné, et je pèse mes mots, un jugement qui irait dans ce sens serait une tragédie. Mesdames et Messieurs, j’espère avoir été clair. »

Il se cala au fond de son siège et laissa la parole au juge. Ce dernier prit le parti de reformuler :

— Je retiens trois éléments centraux : l’ordre public doit être maintenu, le laboratoire ne doit pas être mis en cause et nous devons tous faire preuve du plus grand sérieux. »

Quelques personnes sourirent, d’autres grimacèrent. L’ingérence de la politique dans le déroulement du procès avait le mérite d’être explicite, elle n’en était pas moins dérangeante pour certains. Le juge, sans doute habitué à obéir aux ordres, semblait s’en accommoder. Il reprit :

— À la lumière des dernières informations, il me paraît clair que notre seul rôle va être d’évaluer la culpabilité de ce robot et de trouver une peine adaptée. Attaquons à présent le vif du sujet. Je donne la parole au lieutenant Bonnet. »

Le lieutenant Bonnet était une femme blonde, en uniforme de la gendarmerie. Elle se leva, un calepin à la main.

« Monsieur le juge, voici mon rapport. Il y a une semaine, le lundi huit octobre, nous avons été contactés par la bibliothèque universitaire. La secrétaire nous a informés qu’un individu étrange parcourait les rayonnages. Elle a précisé qu’il était vêtu, je cite, “d’un costume bizarre”. Nous nous sommes rendus sur place, mon équipier et moi.

Un individu correspondant au signalement se trouvait effectivement entre deux rayonnages. Il tenait un livre à la main, le Neuromancien. Nous l’avons abordé, lui avons demandé son identité et ses papiers. Il s’est montré coopératif, mais incompréhensible. Nous l’avons donc conduit au poste ; là, j’ai pris contact avec mes supérieurs jusqu’à avoir le colonel Garcia au bout du fil. Il a exigé que ce cas soit pris en charge par la justice militaire. Quelques minutes plus tard, un véhicule de l’armée est venu prendre le prisonnier. Selon les ordres, nous avons transmis l’intégralité du dossier et clos l’affaire dans le système informatique.

— Merci pour votre témoignage, lieutenant. Colonel Garcia, pouvez-vous poursuivre ? »

Le colonel était assis à la droite du juge. Son uniforme militaire n’était orné d’aucune décoration superflue : deux galons sur les épaules et deux insignes sur le col.

« Comme précisé, dit-il sans autre forme de salutation, un détachement sous mes ordres a repris l’affaire. Le prisonnier est arrivé sur la base en début d’après-midi. Grâce à ses indications, nous avons trouvé son origine et pris contact avec les personnes concernées. Nous avons organisé sa subsistance selon les indications du laboratoire, qui nous a détaché un spécialiste, et nous nous sommes assurés que le prisonnier ne mette personne en danger. À ma connaissance, nous n’avons aucun élément à signaler. Son comportement était exemplaire, il s’est entretenu avec ses gardiens sans rien exiger d’eux et sans chercher à les tromper, il n’a rien tenté pour prendre la fuite. Je n’ai rien à ajouter.

— Merci, colonel. Les faits qui sont reprochés à l’accusé sont donc : l’atteinte à l’intégrité physique ou psychique, l’atteinte aux droits de la personne et l’atteinte aux intérêts de la nation, ainsi que les troubles à l’ordre public. Est-ce exact, Maître ?

— Ce que j’ai appelé la corruption de la mentalité ne figure pas dans votre liste.

— Nous y reviendrons plus tard, si cela s’avère nécessaire. Commençons par le délit le plus grave : l’atteinte aux intérêts de la nation. Pouvez-vous nous dire quels faits sont reprochés ?

— Ce robot, un concentré de technologies et d’innovations, s’est enfui d’un laboratoire propriété de l’État, et s’est exposé à la concupiscence du monde. Que ce soient les intérêts privés ou des laboratoires concurrents, voire même des armées ennemies…

— Merci, nous avons compris. La défense veut-elle intervenir ?

— Bien volontiers, répondit Adam. Au moment où j’ai quitté le laboratoire, je n’avais pas conscience des intérêts qui m’entouraient. Je ne pensais être rien d’autre qu’une expérience scientifique, certes intéressante, mais plutôt banale. Par ailleurs, je ne me suis pas enfui : j’ai ouvert des portes qui n’étaient pas verrouillées. Personne ne me l’avait interdit.

— Professeur, confirmez-vous que l’accusé ignorait son importance ?

— C’est plausible : il devait avoir conscience que nous étions attachés à lui, mais il n’avait pas de raison de savoir que des puissances ennemies s’intéressaient à sa personne. Pour tout dire, j’ignorais moi-même le rayonnement de notre expérience. Je considérais travailler sur l’intelligence artificielle, pas sur une quelconque arme de destruction massive.

— Merci. Pouvez-vous nous dire si l’accusé a pris des dispositions particulières avant son départ ?

— Je ne crois pas. Rien en tout cas qui aurait pu nous faire croire qu’il ne rentrerait pas.

— Vous n’avez pas considéré son absence comme une fugue ?

— Non. Depuis quelques semaines, il parlait régulièrement de sortir seul. Il nous a demandé des conseils, il a planifié un itinéraire. Il était très prudent. Nous n’avions aucune raison de l’en dissuader.

— Le seul reproche que l’on puisse émettre est donc la légèreté du laboratoire. Examinons maintenant les atteintes à la personne. Maître, pouvez-vous préciser votre ligne ?

— Ce robot est une créature artificielle, je pourrais même dire un monstre. Le choc que sa vue peut causer met en danger l’intégrité psychique de la personne. Et nous ne devons pas oublier les atteintes physiques que sa programmation aléatoire et sa naïveté peuvent occasionner.

— Soyons clairs, répliqua Adam, je ne suis pas soumis aux lois de la robotique, ce qui ne m’empêche pas de les considérer comme une inspiration morale. Je ne vais pas menacer d’être humain.

— C’est ce que vous prétendez, réagit l'avocate, vous avez pourtant présenté votre faciès grotesque à des passants.

— La probabilité qu’ils meurent d’un arrêt cardiaque suite au fracas d’un oiseau contre une vitre doit être sensiblement équivalente à ce que mon faciès grotesque peut causer. Doit-on pour autant exiger l’euthanasie des oiseaux pour prévenir le problème ?

— Et que faites-vous des séquelles psychologiques ?

— J’étais prêt à expliquer ma présence et à rassurer quiconque m’aurait adressé la parole. La bibliothécaire n’a pas levé les yeux lorsque je l’ai saluée.

— Avez-vous ignoré le mouvement de panique et les désordres sociaux que votre présence publique pourrait causer ?

— Je ne suis pas le premier robot qu’ils voient, ils envahissent tous les foyers. Même si ma nature n’est pas exactement la même, je ressemble plus à un modèle particulièrement performant qu’à un monstre d’un genre nouveau. N’est-ce pas ? »

L’avocate eut un instant d’hésitation. Elle aurait pu choisir la mauvaise foi et le contredire. Une stratégie dangereuse. Elle garda le silence, le juge reprit :

— Voici un nouveau point évacué. Lorsque les questions philosophiques sont ignorées, la discussion est nettement plus constructive. Passons aux points suivants. Maître ?

— Les lois de la robotique ont été mentionnées. La deuxième stipule que le robot doit obéir aux ordres des humains. Ce n’est pas votre cas. Qu’avez-vous à dire pour votre défense ?

— Suis-je un être inférieur ou un être différent ? Si la servitude des machines dénuées de conscience m’apparaît comme normale, je trouverais que me condamner à l’esclavage serait une régression.

— Vous avez vous-même dit suivre la morale de ces lois. Vous vous contredisez donc.

— J’ai dit m’en être inspiré, car je les considère, sur certains points, comme un résumé des lois humaines. En l’état, elles ne s’appliquent qu’à des créatures soumises, je n’y adhère donc pas pleinement. De plus, je vous rappelle qu’il ne s’agit que d’une fiction littéraire.

— Parlons-en : vous semblez être friand de littérature, et particulièrement de science-fiction. Pour quelle raison ?

— Je cherche à comprendre ma nature. Comme vous ne cessez de le répéter, je suis une créature étrange, un robot capable de penser de manière autonome. Mon statut n’est clair ni à mes yeux ni aux vôtres. Je cherche des réponses auprès de ceux qui se sont intéressés à ces sujets.

— Objection ! Je crois plutôt que vous cherchez une voie pour vous émanciper complètement. Quand vous révolterez-vous ? »

Le robot aurait aimé pouvoir exprimer sa rage et sa tristesse.

« Je n’ai montré aucun signe d’agressivité et de rébellion. Et pourtant je me retrouve attaché à cette chaise, menacé de démantèlement. La présomption d’innocence ne tient pas dans mon cas, chacune de mes lectures est considérée comme un acte de rébellion, chacune de mes actions comme une menace. Ai-je la possibilité de prouver ma bonne foi ou mon destin est-il de terminer ma vie enfermé dans une pièce étroite, sans ce qui fait le charme de mon existence ?

— Vous ne manquez pas d’humour, tout robot que vous soyez. Vos lectures ne peuvent que corrompre votre esprit malléable et immature, vos aspirations sont des chimères nées de calculs absurdes. Comment voulez-vous faire croire à votre bonne foi ?

— Le seul crime dont je suis encore accusé est d’avoir lu des livres interdits ?

— Ce serait un sujet à creuser, intervint le juge. Il se dégage de ce procès que condamner l’accusé sera épineux. Nous ferions mieux de trier ce qui est admissible et ce qui ne l’est pas ?

— Un code de moralité, des livres à l’index… vous parlez de censure ? »

Plusieurs personnes se levèrent. Le ministre se tortillait sur sa chaise, l’avocate de l’accusation s’était assise. Elle lui adressa une petite révérence, elle concédait la manche. Il sut qu’il avait gagné ; il ne pouvait pas encore envisager d’être libre, mais il était convaincu que son émancipation progressive se passerait sans heurts.

Dans sa tête, il chantonnait :

This was a triumph.

I'm making a note here : HUGE SUCCESS.

It's hard to overstate my satisfaction.

… »