Intelligence artificielle : une machine peut-elle penser ?

En réponse à un fonctionnalisme qui considère l’esprit comme un système de traitement de l’information où les inputs et outputs peuvent être comparés au fonctionnement d’un ordinateur, le philosophe John Searle (1932-) élabore dès 1980 sa désormais célèbre objection de la chambre chinoise. Il va s’agir ici, tout en suivant pas à pas le raisonnement de Searle (d’où l’usage abondant de la citation de son ouvrage Minds, brains and programs, 1980), de décrire cette thèse et tenter de comprendre les implications de cette critique face à la tentante comparaison entre esprit et machine.

ManEvolutionComputer

Esprit et machine, deux “outils” interchangeables ? [image MG]

1. L’argument, la “chambre chinoise”

L’objection de Searle prend pour exemple une situation bien particulière, celle d’une machine de Turing à l’échelle humaine qu’il décrit en ces termes :

Suppose that I’m locked in a room and given a large batch of Chinese writing. Suppose furthermore (as is indeed the case) that I know no Chinese, either written or spoken, and that I’m not even confident that I could recognize Chinese writing as Chinese writing distinct from, say, Japanese writing or meaningless squiggles. (…) Now, suppose further that after this first batch of Chinese writing I am given a second batch of Chinese script together with a set of rules for correlating the second batch with the first batch. The rules are in English, and I understand these rules as well as any other native speaker of English. They enable me to correlate one set of formal symbols with another set of formal symbols, and all that « formal » means here is that I can identify the symbols entirely by their shapes. Now suppose also that I’m given a third batch of Chinese symbols together with some instructions, again in English, that enable me to correlate elements of this third batch with the first two batches, and these rules instruct me how to give back certain Chinese symbols with certain sorts of shapes in response to certain sorts of shapes given me in the third batch1.

Chambre chinoise, illustration Wikimedia (Luizpuodzius)

La situation interne est facilement imaginable, l’homme enfermé dans la pièce, la fameuse « chambre chinoise » n’est en contact avec l’extérieur que grâce aux petits papiers qui entrent et sortent. Tout ce qui se passe à l’extérieur ainsi que toute l’interprétation que l’observateur externe fait de son travail lui est étranger. Passons maintenant à l’extérieur de la pièce :

Unknown to me, the people who are giving me all of these symbols call the first batch « a script », they call the second batch a « story », and they call the third batch « questions ». Furthermore, they call the symbols I give them back in response to the third batch « answers to the questions », and the set of rules in English that they gave me, they call « the program ».2

Après l’entraînement en anglais, les papiers arrivent, mais en chinois cette fois-ci. L’homme enfermé continue à appliquer le « programme » :

(…) Nobody just looking at my answers can tell that I don’t speak a word of Chinese.3

On peut donc considérer deux types de questions : les questions posées en anglais, auxquelles le cobaye répond comme un humain, et les questions en chinois, auxquelles le cobaye répond comme un ordinateur. Du point de vue externe, les réponses aux deux types de questions sont considérées comme satisfaisantes, puisque dans le deuxième cas la chambre joue le rôle d’une machine de Turing et puisque le cobaye respecte les procédures, en anglais. La critique de Searle porte ici sur la différence entre ces deux types de questions, l’une compréhensible, et l’autre totalement insaisissable par l’homme, à tel point qu’il ignore totalement que c’est réellement une « question ». La confusion que Searle met en évidence porte donc sur la différence fondamentale qui existe, selon lui, entre la réponse humaine et l’instanciation d’un programme informatique (puisque c’est bien de cela qu’il s’agit dans le cas du chinois).

ManEvolutionComputer

2. La critique de Searle

Searle en vient à l’intelligence artificielle (IA) :

Now the claims made by strong AI are (1) that the programmed computer understands the stories and (2) that the program in some sens explains human understanding.4

C’est contre ces deux postulats de l’intelligence artificielle forte que Searle va argumenter.

I have no objection to the claims of weak AI, at least as far as this article is concerned. My discusion here will be directed at the claims I have defined as those of strong AI, specifically the claim that the appropriately programmed computer literally has cognitive states and that the programs thereby explain human cognition. (…) the same arguments would apply to (…) any Turing machine simulation of human mental phenomena.5

En effet, Searle n’a rien contre l’intelligence artificielle faible, il reconnaît que l’ordinateur est un outil performant. Par contre, dès lors qu’on entre dans le raisonnement des tenants de l’intelligence artificielle forte, l’ordinateur n’est plus seulement un outil pour étudier l’esprit, mais il devient lui-même esprit ! Intéressons-nous maintenant aux réponses de Searle au sujet des deux arguments de l’intelligence artificielle forte :

Affirmation 1 (compréhension)

I have inputs and outputs that are indistinguishable from those of the native Chinese speaker, and I can have any formal program you like, but I still understand nothing. For the same reasons, the computer understands nothing of any stories, whether in Chinese, English, or whatever, since in the Chinese case the computer is me, and in cases where the computer is not me, the computer has nothing more than I have in the case where I understand nothing.6

Searle part du principe que, puisqu’il ne comprend rien en agissant de la même façon qu’un ordinateur (en bref, obéir à des règles imposées), l’ordinateur, qui n’a « rien de plus » que lui, ne doit pas non plus être capable de comprendre, non seulement le contenu des informations, mais aussi le sens de ses agissements.

Affirmation 2 (explication)

(…) what is it that I have in the case of the English sentences that I do not have in the case of the Chinese sentences ? The obvious answer is that I know what the former mean.7

L’ordinateur est une machine qui ne s’occupe que de l’aspect formel des informations qu’il véhicule (nous reviendrons plus loin sur les questions syntaxe et de sémantique), cela pose la question de la compréhension (qu’est-ce que comprendre ?) ainsi que celle de l’intentionnalité.

ManEvolutionComputer3. Réponses à l’argument de la chambre chinoise

Les objections à l’argument de la chambre chinoise ont été recensés par Searle qui procède à leur critique dans son article. Nous allons en considérer deux en particulier.

La réponse du système

La réponse du système, de Berkeley, s’énonce ainsi :

While it is true that the individual person who is locked in the room does not understand the story, the fact is that he is merely part of a whole system, and the system understand the story. (…) Now, understanding is not being ascribed to the mere individual; rather it is being ascribed to this whole system of wich he is a part.8

Selon cette argumentation, la machine « totale » serait capable de comprendre, alors que la « partie », le cobaye, par exemple, n’est pas en mesure d’avoir une vue d’ensemble. Searle va montrer que cette critique est vide d’arguments :

The idea is that while a person doesn’t understand Chinese, somehow the conjunction of that person and bits of paper might understand Chinese. (…) The example shows that there could be two « systems », both of which pass the Turing test, but only one of which understands; and it is no argument against this point to say that since they both pass the Turing test they must both understand.9

En effet, si on suit la critique jusqu’à son terme, on peut en arriver à la célèbre conclusion que les thermomètres ont des croyances.

La réponse du robot

La réponse du robot (Yale) est une tentative de rendre l’ordinateur plus complet en lui permettant d’avoir une relation au monde plus développée, Searle la présente comme suit :

Suppose we put a computer inside a robot, and this computer would not just take in formal symbols as input and give out formal symbols as output, but rather would actually operate the robot in such a way that the robot does something very much like perceiving, walking, moving about, (…).10

C’est donc en lui procurant une machinerie qui le rend capable d’interagir de façon plus sophistiquée avec son environnement que cette réponse veut contrer les thèses de Searle, ce dernier y répond très simplement :

The first thing to notice about the robot reply is that it tacitly concedes that cognition is not soley a matter of formal symbol manipulation, since the reply adds a set of causal relation with the outside world. (…) The addition of such « perceptual » and « motor » capacities adds nothing by the way of understanding, in particular, or intentionality, in general, to the original program.11

Les manipulations s’appliquent toujours à des symboles formels, ajouter des informations pour l’ordinateur ne change strictement rien au problème, ce n’est pas une question de complexité ou de degré de complétude vis-à-vis de l’humain.

ManEvolutionComputer4. Une machine peut-elle penser ?

Après avoir écarté ses détracteurs, Searle prend le parti de se poser la question qui s’impose, « could a machine think ? ». Il utilise pour introduire ce sujet d’emprunter à Platon le style dialogué :

–       Could a machine think ?

–       Yes, we are precisely such machines

–       Yes, but could an artifact, a man-made machine think ?

–       Yes, if you can exactly duplicate the causes, you could duplicate the effets.

Réponse empirique, si on peut recréer des neurones de type humains, c’est bon.

–       But could something think, understand, and so on solely in virtue of being a computer with the right sort of program ? Could instantiating a program, the right program of course, by itself be a sufficient condition of understanding ?

–       This I think is the right question to ask, (…) and the answer to it is no.

–       Why not ?

–       Because the formal symbol manipulations by themselves don’t have any intentionality, (…) they have only syntax but no semantics.12

Tant que les symboles ne symbolisent pas réellement quelque chose de compréhensible,… on ne pourra pas attribuer la pensée à une machine. Glissons ici, en échos, un court extrait d’un texte d’Abelson qui répond à Searle après son texte :

We might well bee humble and give the computer the benefit of the doubt when and if it performs as well as we do.13

Sans sémantique, Searle ne considère pas possible une certaine compréhension. Toutefois, on peut noter qu’il existe des courants de linguistes qui postulent que la sémantique « émerge » de la syntaxe. Searle va ensuite développer cette question de la sémantique :

The distinction between the program and its realization in the hardware seems to be parallel to the distinction between the level of mental operations and the level of brain operations. (…) But the equation, « mind is to brain as program is to hardware » breaks down at several points.14

Ce n’est donc pas en apprenant les règles syntaxiques du Chinois qu’on pourra le parler. Il faut en effet plus qu’une grammaire pour comprendre, il faut aussi un vocabulaire « expliqué », dans un langage compréhensible. On ne peut donc pas faire aussi facilement une comparaison directe entre l’esprit et un programme informatique. De plus, le programme est purement formel, alors que les états intentionnels n’ont rien de formel, ils sont définis par leur contenu, pas par leur forme. Les états mentaux sont littéralement des produits d’opérations du cerveau, alors que les programmes ne sont pas des produits de l’ordinateur

ManEvolutionComputer5. Intentionnalité et métaphore de la compréhension

Dans des travaux ultérieurs, Searle va analyser plus en détail une tendance qu’a l’homme quand il parle d’objets non vivants, l’attribution d’intentionnalité et de compréhension.

We often attribute « understanding » and other cognitive predicates by metaphor and analogy.

Par exemple, on dit souvent que la calculatrice sait combien font deux plus deux, que la pelouse a soif, que le thermomètre perçoit la température…C’est dans chaque cas un description figurée, l’attribution d’une intentionnalité comme si. Selon Searle15, l’intentionnalité intrinsèque est le propre de certains êtres vivants qui la possèdent en vertu de leur nature biologique. Cette proposition rend la thèse de Searle fragile car il ne donne pas de distinction essentielle entre ce qui est biologique et ce qui ne l’est pas. L’approche fonctionnelle, elle, est incapable de distinguer le biologique de l’ordinateur, mais en a-t-elle besoin ? Le danger de l’épiphénoménisme le guette.

Pour en revenir à l’intentionnalité, il est important de comprendre que ce n’est que l’utilisateur de l’ordinateur qui en comprend l’output et pas l’ordinateur lui-même :

Why on earth would anyone suppose that a computer simulation of understanding actually understood anything ?16

En effet, on n’attribue pas à l’ordinateur la capacité d’aimer, alors pourquoi pourrait-on lui attribuer celle de comprendre ? Vis-à-vis de l’ordinateur, on entretien d’ailleurs une ambiguïté de langage face à la notion d’« information » :

the programmed computer does not do « information processing ». Rather, what it does is manipulate formal symbols.

ManEvolutionComputer6. Conclusion

Concluons sous forme de deux citation, l’une de Searle, plus tardive que le texte étudié, l’autre de Pinkas, qui révèlent les deux l’importance du contenu relationnel de l’information véhiculée tant par l’ordinateur que par l’humain :

C’est le langage qui est dérivé de l’intentionnalité, et non l’inverse.17

L’intentionnalité est la propriété que possèdent certains états ou événements mentaux, ainsi que certains objets linguistiques ou quasi linguistiques, d’être « à propos de quelque chose », d’avoir un contenu.18


  1. Searle, Minds, brains, and programs, 1980, p.417-418
  2. Searle 1980, p. 418
  3. Searle 1980, p. 418
  4. Searle 1980, p. 418
  5. Searle 1980, p. 418
  6. Searle 1980, p. 418
  7. Searle 1980, p. 418
  8. Searle 1980, p. 419
  9. Searle 1980, p. 419
  10. Searle 1980, p. 420
  11. Searle 1980, p. 420
  12. Searle 1980, p. 422
  13. Abelson in Searle 1980, p. 424
  14. Searle 1980, p. 422
  15. Searle, The Rediscovery of Mind, 1992
  16. Searle 1980, p. 423
  17. Searle 1992, p. 20
  18. Pinkas, La matérialité de l’esprit, 1995