Black Mirror est une série télévisée britannique créée par Charlie Brooker et diffusée depuis 2011 sur Channel 4. La particularité de cette série est d’être composée d’épisodes qui ne se suivent pas narrativement, mais qui sont liés par quelques thématiques, notamment autour des nouvelles technologies et des réseaux sociaux. Par conséquent, je ne ferai que vous « spoiler » l’épisode en question: chaque épisode de Black Mirror est produit avec son décor propre et son casting propre, et relate les faits d’une réalité toujours dystopique. Certes, Black Mirror est classé dans la science-fiction (ceci peut se comprendre, étant donné que nous avons affaire à un futur plus ou moins proche), mais il me semble que la série veut plutôt nous faire prendre conscience de certains enjeux contemporains: elle veut nous montrer par-là que cette réalité est tout à fait possible, et que le pas serait très facile à franchir. Bref, je vous conseille vivement de la regarder: elle a, pour ma part, suscité beaucoup de réflexions.
L’épisode dont je vais vous parler est le premier de la deuxième saison, intitulé « Be right back » (en français: « Bientôt de retour »). Le synopsis est le suivant: Martha et Ash sont un jeune couple qui s’installe à la campagne. Ash meurt d’un accident de voiture, et Martha apprend peu de temps après sa mort qu’elle est enceinte de lui. Afin de combler son manque, son amie Sarah lui propose d’installer sur son ordinateur un logiciel qui simule son comportement linguistique à partir de l’historique de Ash numérisé dans les fichiers, les courriels, les réseaux sociaux, etc. En premier lieu, Martha refuse cette proposition qu’elle juge insensée, mais Sarah décide malgré tout de l’abonner au service: Martha reçoit un courriel de la part de cette simulation de Ash (que nous nommerons Ash’), l’invitant à discuter avec lui. Elle accepte finalement, et s’attache de plus en plus à cette entité virtuelle qui reproduit de façon réaliste le comportement de son défunt compagnon.
À présent, envisageons une analyse philosophique de cette épisode à partir d’une célèbre conférence de John Searle tirée de Minds, Brains and Science: The 1984 Reith Lectures. Cette conférence est traduite en Français sous le titre « Les ordinateurs peuvent-ils penser? », et a pour objet d’étude principal la signification. Malgré le fait que cette conférence soit un peu datée, je trouve que le constat de Searle reste toujours aussi pertinent en ce qui concerne notamment la syntaxe et le contenu sémantique. Notre analyse se basera d’abord sur la philosophie du langage: il est ici question de critiquer la théorie fonctionnaliste qu’est le computationnalisme, et de rendre compte de l’impossibilité de créer une intelligence artificielle qui puisse égaler l’intelligence humaine.
Conscience et comportement linguistique
Évoquons dans un premier temps l’exemple de la « chambre chinoise »: un individu X se trouve dans une pièce, et on lui apprend à manipuler les signes chinois de façon à ce qu’il puisse former des phrases correctes. Cet X n’a aucune connaissance du chinois, et ne comprend pas les signes qu’il est en train de manipuler. Une personne Y à l’extérieur de la pièce dépose une question à travers une fente: X va appliquer toutes les règles syntaxiques qu’il a apprises et va former, à l’aide de signes déposés en petits papiers dans des paniers, des réponses à Y. Y sera persuadé que X aura compris la question, alors que ce n’est pas du tout le cas.
Par cet exemple, Searle veut nous prouver que la syntaxe se distingue radicalement du contenu sémantique: les symboles que manipule X n’ont pas de contenu sémantiques, tout comme un système informatique qui, sur base binaire, produit une réponse automatique. Par conséquent, tout programme exécute une action de façon uniquement formelle et syntaxique, alors que l’esprit, en plus de la syntaxe et de sa structure formelle, a une sémantique. La question de la signification des énoncés est alors cruciale, et limite considérablement l’approche computationnelle de l’esprit: tout comportement linguistique n’implique pas nécessairement une compréhension. Nous pouvons penser à notre amie Siri: malgré le ton suave de sa voie et ses quelques réponses « humoristiques » parfois (on se contente d’assez peu), elle n’a en aucun cas accès au sens de ma question, et ne va que synthétiser des informations trouvées sur le web ou dans sa base de données à partir de la structure purement formelle de mon énoncé. La phrase que j’énonce – à condition que je la prononce sur la base de critères préétablis de façon normative (l’accent des Cévennes profondes est à proscrire, entre-autre) – va être traitée de façon systématique sur la base de règles syntaxiques.
À présent, intéressons-nous aux protagonistes de la série: Martha est consciente qu’il s’agit d’un programme; elle sait très bien que la copie de Ash (Ash’) ne fait que manipuler des symboles. Elle décide néanmoins de « rentrer dans le jeu »: sa détresse psychologique est à la source de son illusion, et c’est ainsi que Martha infère un contenu sémantique aux propositions syntaxiques de Ash’. Elle considère alors que son comportement est lié à une interprétation, et donc à un contenu mental propre. Certes, il s’agit formellement de Ash, puisque c’est bel et bien des traces de ses actes linguistiques qui sont numérisés. Néanmoins, tout contenu mental suppose un contenu sémantique, et il en va de même concernant le sens que l’on donne à nos actes corporels. Au fur et à mesure que l’épisode avance, la voix de Ash est recréée à partir de vidéos et enregistrements: les intonations spécifiques du personnage sont reproduites à la perfection, sans pour autant que cela lui fasse un « certain effet » de prendre une grande inspiration ou de gémir de douleur (on peut également se référer au film « Her » de Spike Jonze, qui traite sensiblement du même sujet). Il en va de même quand Martha décide de se faire livrer un tas de chair synthétique qui prend ensuite l’apparence de Ash et reproduit tous ses gestes: nous avons affaire à une sorte de « zombi philosophique », dans le sens ou Ash’ reste quasiment identique à Ash sur le plan fonctionnel, mais est complètement dénué de conscience phénoménale (ou conscience P, Ned Block, 2007).
Certes, Martha se rend bien compte des limites du système: Ash’ ne peut, par exemple, dépasser un certain périmètre tant que son « administrateur » (en l’occurrence, Martha) lui en ait donné l’autorisation. Il doit également se comporter comme s’il avait des besoins naturels (manger, boire, dormir…) et donc agir comme s’il s’agissait d’une entité organique. Son interaction causale avec le monde extérieur a tout l’air d’être cohérente, du moins après avoir incorporé certaines attitudes propres au développement d’un être humain dans un certain contexte socio-culturel. Mais, comme le rappelle Searle, cette interaction causale n’implique pas nécessairement un contenu sémantique, et encore moins une expérience d’ordre qualitatif. Le comportement humain n’est alors qu’un « référant d’action », et comme le dit Searle, « ses opérations (l’ordinateur, ou en l’occurrence Ash’) seront toujours définies de façon syntaxique, alors que notre conscience, nos pensées, nos sentiments, nos émotions, etc., comportent autre chose, quelque chose de plus. Par définition, l’ordinateur est incapable de dupliquer ces caractéristiques, quelle que soit sa capacité de simulation » (Du cerveau au savoir, p. 49).
Une illustration du zombi ?
Selon Chalmers, la possibilité logique des zombis réside dans le fait qu’une duplication fonctionnelle est logiquement possible, puisqu’il peut exister un monde dans lequel une copie conforme de moi puisse se comporter de la même manière sans nécessairement éprouver quoi que ce soit (l’existence des qualia serait donc contingente selon cette théorie). Pouvons-nous pour autant dire qu’un zombi « simule » un comportement? En ce sens, il est clair que l’exemple du zombi reste une possibilité d’ordre logique, et un tel zombi ne pourra jamais exister puisqu’il serait alors identique à Ash à 100% sur un plan fonctionnel. Ash’ est également une possibilité logique, puisqu’il fait partie d’un monde possible représenté dans l’oeuvre de fiction. Mais du point de vue du protagoniste, à savoir Martha, ce « zombi » de Ash est une mise en oeuvre formelle de ce que le vrai Ash aurait pu dire ou aurait pu faire, sans pour autant qu’il soit identique fonctionnellement à l’original.
Certes, le cerveau a très certainement des propriétés « informatiques », dans le sens où le traitement de la mémoire peut être comparable à celui d’un ordinateur (qui, d’ailleurs, peut être beaucoup plus performant à ce niveau). Mais, comme le conclut Searle, « aucun programme informatique n’est suffisant pour donner un esprit à un système » (Du cerveau au savoir, p. 55). À la différence du zombi, tout système informatique reste un artefact qui n’aura jamais de pouvoirs équivalent à ceux du cerveau humain. La nature organique du cerveau humain est par conséquent cruciale si nous voulons naturaliser les phénomènes de la conscience, et définir distinctement la nature des qualia. Cela ne veut pas dire, bien évidemment, que d’autres systèmes ne pourraient pas causer des états mentaux: comme le dit Searle, il se pourrait très bien qu’un Martien avec une sorte de substance ressemblante à de la vase verte en guise de cervelle puisse produire une vie mentale comparable à celle des humains, et donc engendrer des pouvoirs de causalités tout autant comparables.
Pour en revenir à l’épisode de Black Mirror en question, Martha a donc cherché à nouer des liens d’ordre affectif – et par conséquent d’ordre qualitatif – avec une intelligence artificielle qui, en contrepartie, ne faisait que simuler un comportement. Cette différence entre deux ordres distincts (qualitatif VS fonctionnel) peut être aussi comprise en général dans notre rapport actuel à la virtualité informatique. Cette conception de l’esprit, distincte du fonctionnalisme, permet donc une approche des nouvelles technologies qui nous met en garde aussi de certaines dérives, liées notamment à la volonté de s’affranchir des limites naturelles. À la fin de l’épisode, Martha décide de se débarrasser de cette copie de Ash, et l’incite à sauter d’une falaise. Tandis que Ash’ est sur le point de s’éxécuter, Martha lui dit que jamais Ash n’aurait agi de la sorte sans résister. À ce moment-là, Ash’ simule à la perfection la détresse d’un condamné, et se met à pleurer à chaudes larmes. L’empathie de Martha prend finalement le dessus, et elle décide de le garder dans son grenier afin de pouvoir faire connaître à sa petite fille son « père », ou du moins ce qu’il reste de lui. Finalement, nous pourrions dire que tout instinct vital est lié nécessairement à une dimension qualitative, propre à notre existence, et qu’il nous serait tout simplement impossible de la nier. Si Ash’ s’était réellement « tué », cette situation aurait été comparable à la simple destruction d’un ordinateur au prix onéreux… à la différence près qu’un MacBook ne pleure pas.
tristan bonhomme
Bibliographie
- SEARLE, John (1984). Minds, Brain and Science. London: British Broadcasting Corporation. Trad: Du cerveau au savoir (Chaleyssin, C., 1985). Paris: Hermann.
- CHALMERS, David (1996). L’esprit conscient (trad. Dunand, F.). Paris: Ithaque (2010).
- BLOCK, Ned (2007). « Consciousness, accessibility, and the mesh between psychology and neuroscience » in Behavioral and brain sciences, 30. Cambridge: Cambridge Université Press.
- LEWIS, David (1986). On the plurality of Worlds. Oxford: Basil Blackwell Publishing. Trad: De la pluralité des mondes (Caveribère, M., Cometti, J.-P., 2007). Paris/Tel Aviv: Éditions de l’éclat.
Commenter cet article