Philosophie de l'Intelligence artificielle - Une introduction

Internet_map

Titre : Une introduction à la Philosophie de l'intelligence artificielle
Intervenant·e·s : Eric Lefevre-Ardant - Sonia Ouchtar
Lieu : Palais des Congrès, Salle Maillot - Devoxx FR
Date : avril 2017
Durée : 38 min 56
Visionner la vidéo
Licence de la transcription : Verbatim
Illustration : Carte partielle d'Internet, Wikimedia Commons - Licence Creative Commons Attribution 2.5 Generic
NB : transcription réalisée par nos soins, fidèle aux propos des intervenant·e·s mais rendant le discours fluide.
Les positions exprimées sont celles des personnes qui interviennent et ne rejoignent pas nécessairement celles de l'April, qui ne sera en aucun cas tenue responsable de leurs propos.

Description

Les machines peuvent-elles être intelligentes ? Comment le juger ? Que signifie être intelligent, pour une machine ? Sait-on de quoi rêveraient des androïdes ? Dans cette présentation, nous explorerons les principes et les limitations du test de Turing, une proposition pour estimer cette intelligence. Nous évoquerons également la chambre chinoise, une expérience de pensée qui peut être vue comme une réponse au test de Turing. À l'issue de cette session, nous aurons une meilleure idée de ce qu'est l'intelligence artificielle, dans son sens fort… et de sa faisabilité.

Transcription

Eric Lefevre Ardant : Bonjour, je suis Eric Lefevre-Ardant, je suis développeur chez Le Bon Coin. Il ne vous a pas échappé que l'intelligence artificielle est le sujet du moment. Un magazine aussi auguste que The Economist, au début de cette année, disait que le futur de Didi, le concurrent de Uber en Chine, c'est l'intelligence artificielle ; The New York Times, en décembre dernier, parlait du grand réveil de l'intelligence artificielle.
Dans cette présentation, nous voulons vous aider à porter un regard critique sur ces déclarations. Notre objectif est de vous donner du vocabulaire. Nous allons utiliser les termes que l'on trouve dans la littérature ensuite. Nous allons aussi vous donner des noms de philosophes qui, peut-être, vous donneront envie de lire plus de choses ensuite. Nous allons aussi vous donner un survol à peu près chronologique de différents concepts, principalement de la deuxième moitié du vingtième siècle. On insistera beaucoup sur deux expériences de pensée qui ont énormément influencé la réflexion sur le sujet.
On ne parlera pas de certains sujets, comme l'éthique, qui ont déjà été couverts aujourd'hui par d'autres personnes ni la singularité, ce genre de choses.
Et, dernier point un petit peu technique, dans cette présentation nous utilisons indifféremment les termes de intelligence, conscience, compréhension, intention, intentionnalité. Tout ça, ça va être à peu près la même chose dans le contexte de cette introduction.

Sonia Ouchtar : Bonjour. Je m'appelle Sonia Ouchtar, je suis aussi développeuse à Le Bon Coin. Ça n’a pas grand-chose à voir avec l'intelligence artificielle, mais c'est un sujet qui nous tenait à cœur, donc on a voulu partager ça avec vous.
Dans les termes qu’il est important de connaître aussi dans cette présentation, il y a ce qu'on appelle l'IA au sens fort et l'IA au sens faible.
L'intelligence artificielle au sens fort c'est ce qu'on pourrait s'imaginer de plus logique quand on parle d'intelligence. C'est un système qui peut penser, qui peut avoir des états mentaux.
L'IA au sens faible ou au sens restreint, c'est juste quelque chose qui va agir comme un système intelligent mais qui va juste savoir résoudre certains problèmes dans un domaine particulier.
Donc pour commencer vraiment cette présentation, on sait que la philosophie de l'intelligence artificielle est très liée à la philosophie de l'esprit. On va d'abord vous présenter les grands courants de philosophie de l'esprit qui ont existé avant l'avènement de l'informatique.

Dualisme de substance

On va commencer par le dualisme de substance, des termes qui font un peu peur, bien sûr. C'est une des grandes théories qui s'affrontent en philosophie de l'esprit. Ça existe depuis au moins l'Antiquité, on en a des exemples dans Platon, Aristote, il y avait quelques écoles en Inde qui l'évoquaient également, mais ça a été formulé plus précisément par Descartes au 17ᵉ siècle.
Le principe, c'est que le corps et l'esprit sont deux objets complètement différents et de nature complètement différente. Le corps est un objet physique et l'esprit est un objet non-physique, quelque chose de complètement immatériel, mais les deux, néanmoins, interagissent. Même si, extérieurement, on a l'impression d'être une seule chose, on est, en fait, composé de deux choses de nature différente, le corps et l'esprit.
Qu'est-ce qu'il y a comme conséquences ? On va considérer que le corps agit causalement sur l'esprit. On peut prendre l'exemple de la douleur. Dans cette théorie-là, quand le corps va être blessé, l'esprit va ressentir une douleur en passant par le canal nerf, puis cerveau, puis finalement le message va être envoyé à l'esprit et c'est l'esprit qui va connaître la douleur, ça va pas être le cerveau. Donc c'est comme ça que cette théorie voit les choses. Et dans le sens inverse, quand l'esprit agit causalement sur le corps, par exemple si je décide de lever ma main comme ça, ça va être l'esprit qui va donner la volonté de commencer cet acte-là, qui va envoyer un signal au cerveau qui, lui, va envoyer des signaux aux muscles.
Il y a plusieurs problèmes avec cette théorie. Le premier a été évoqué par la princesse Élisabeth de Bohême. C'est, en gros, par quel moyen est-ce que l'esprit pourrait diriger le corps et par quel moyen le corps pourrait diriger l'esprit, puisqu'ils sont complètement de nature différente. Malheureusement, il n'y a pas eu de très bonnes réponses à part Descartes, donc ça en restera là.

Il y a aussi des théories, qu'on va évoquer juste après, qui présument que finalement l'être humain est complètement physique, donc est-ce que c'est nécessaire de maintenir la distinction entre le corps et l'esprit alors que, finalement, on pourrait tout expliquer en disant juste que tout est purement physique dans l'être humain ?
Un dernier point un peu dommage avec cette théorie, c'est qu'elle affirme la dualité corps/esprit sans vraiment donner d'arguments pour expliquer pourquoi, comment, etc. Donc c'est un petit peu dommage.

Théorie de l'identité esprit-cerveau

Voilà la théorie du « tout-physique », l'identité esprit-cerveau.
C'est pareil, ça a commencé au 17ᵉ siècle et ça a surtout été développé dans les années 50 du 20ᵉ siècle. Le principe c'est quoi ?, c'est que tout état mental va être un genre d'activité du cerveau. On va pouvoir avoir une correspondance très exacte entre un état mental et une configuration du cerveau.
Cette théorie donne vraiment beaucoup de place à l'esprit dans le monde physique, ce qui peut paraître un peu contre-intuitif. Les gens qui défendent cette théorie pensent que, à terme, avec toutes les recherches qu'on va faire sur le cerveau, etc., on va pouvoir vraiment mapper très exactement tous les états mentaux avec tous les états physiques du cerveau.

Pour reprendre l'exemple de la douleur, l'état du cerveau en souffrance par la douleur, c'est l'état mental de la douleur. Voilà, il n'y a pas d'idée de non-physique.
Le problème de cette théorie c'est qu'elle est vraiment centrée sur l'humain, sur le cerveau humain. Du coup, ça parait un peu difficile de parler d'un état mental qui serait uniquement défini par la configuration du cerveau humain. On peut penser que des êtres non-humains comme les pieuvres pourraient aussi ressentir de la douleur même si leur configuration de cerveau n'a rien à voir puisque on sait, par exemple, que la pieuvre a un cerveau central, a des systèmes nerveux dans chacune de ses tentacules, pourtant on suppose qu'elle ressent de la douleur.

La machine de Turing

Une autre chose à voir dans cette présentation, ce n'est pas directement lié à la philosophie mais c'est quand même important de l'évoquer. En 1930, il y a eu la thèse d'Alonzo Church1 et Alan Turing2 qui disait que toute forme de raisonnement mathématique pouvait être mécanisé. C'étaient les débuts de l'informatique au sens théorique et ça a donné la machine de Turing qui est un modèle abstrait du fonctionnement des appareils mécaniques de calcul. En gros, ce genre de machine représente une personne virtuelle qui va exécuter des procédures bien définies en remplissant les cases d'un tableau infini – modélisé là par le ruban – et qui va choisir à chaque fois le contenu à mettre dans chaque case par des symboles, avec aussi un certain nombre de procédures qui définissent comment passer de case en case. C'est une représentation purement physique, c'est bien, il y a une mémoire infinie puisque tu peux mettre un ruban infini.
Il y a ce qu'on appelle une machine de Turing qui aurait le potentiel de calculer tout ce qui est calculable et, dans ce cas-là on parle de machine Turing-complet, je pense que vous avez déjà entendu parler de ce terme. À l'époque, on considère que le cerveau humain pourrait être un appareil Turing-complet, donc c'est là qu'on rejoint un peu la philosophie de l'intelligence artificielle.

Le jeu de l'imitation

Pour continuer avec Turing, en 1950, 20 ans après cette thèse-là, il crée le « jeu d’imitation », également appelé le test de Turing.
Le contexte c'est quoi ? C'est est-ce qu'on peut parler d'intelligence quand on pense à des êtres complètement simplistes ? Par exemple est-ce qu'on peut vraiment considérer que des nouveaux-nés, des insectes, des organismes uni-cellulaires, sont intelligents ? On peut facilement se dire qu'il y va y avoir une forme d'intelligence, mais, en fait, ce qui nous intéresse vraiment c'est la complexité de cette intelligence.
Donc Turing a voulu savoir comment on pourrait évaluer facilement cette intelligence, surtout dans le contexte des machines : est-ce qu'une machine peut vraiment penser ? Donc c'est là qu'il a créé ce test.

Le principe du test, que vous connaissez sûrement, c'est de mettre un humain en confrontation avec un autre humain et un ordinateur. Ils vont pouvoir discuter librement pendant une durée définie et, à la fin, si l'humain n'a pas réussi à déterminer qui était l'ordinateur et qui était l'autre humain, on considère que le software de l'ordinateur a réussi le test de Turing.
Que sous-entend ce set-up là ? Que à la fois la machine et l'humain vont parler en termes sémantiques complètement humains ; que les réponses doivent être données à intervalles définis, parce que sinon c'est facile, on pose une question mathématique, forcément la machine répondra plus vite que l'humain. Donc ça c'est bien défini. Après ça c'est une liberté complètement totale. Donc la machine peut décider de dire « le gars à côté ment, c'est moi l'humain » ou, au contraire, l'humain peut dire « mais non, c'est moi l'humain ». Ça peut donner des situations assez intéressantes, mais c'est toujours par des messages textuels.
Je fais juste une petite parenthèse. C'est à différencier de ce qu'on peut avoir avec les chatbots par exemple sur IRC. Ce ne sont pas des tests de Turing puisqu'on n'a pas de raison de suspecter qu'on parle à une machine. Ce n’est pas comme dans le test de Turing où on sait qu'on a une machine, un humain, et on veut savoir la différence.

Problème anthropomorphique

Il y a eu plusieurs objections au test de Turing.
La première c'est que c'est trop anthropomorphique. Vu que tout le langage et toutes les expressions sont du langage humain, on ne va pas être capable d'évaluer si un système qui est non-humain va être intelligent.
Par exemple, dans le livre Solaris, il y a une planète complètement recouverte d'eau. Cette eau est intelligente, mais elle n'est pas humaine, du coup est-ce qu'elle passerait le test de Turing ? À priori non, ce qui serait dommage parce que, finalement, elle est intelligente. Pour reparler des pieuvres, elles aussi sont extrêmement intelligentes, mais elles ne se comportent pas comme des humains, elles ne communiquent pas comme des humains, du coup ce ne serait pas possible à déterminer avec ce test-là.

Problème : basé sur le langage

Il y a aussi un problème c'est que c'est basé sur le langage. Donc ça pose plusieurs problèmes. Comment fait-on pour les gens qui n'ont jamais appris à lire ? Est-ce qu'on considère que parce qu'on est analphabète on est stupide ?, ce serait un petit peu dommage.
Il y a aussi le fait que les chatbots peuvent utiliser des tics de langage ou des fausses fautes d'orthographe pour nous induire en erreur, ça c'est un petit peu dangereux.
Il y a aussi le fait qu'on peut converser avec ces engins-là dans une langue autre que notre langue maternelle. Dans ce cas-là on va être complètement perdu ; on ne saura pas si c'est parce que c'est un manque de compréhension de notre part ou de leur part, etc., ça peut induire en erreur.
Il y a aussi un autre fait, comme c'est basé sur le langage, ça ne parle que d'un seul type d'intelligence, l'intelligence verbale, qui est vraiment très limitée. Et quand on pense à l'intelligence, on pense à quelque chose d'un peu plus large que ça.

Problème : rien sur l'état interne

Dernier problème, c'est qu'on n'a rien sur l'état interne de cette machine. Ça peut être d'un vide consternant sans vraiment qu’on le sache. Il y a un exemple qui a été donné par NetBlocks, avec une base de données hypothétique qu'il appelle Blockhead qui n'aurait pas d'état du tout, ce serait juste une immense base de données de toutes les conversations faites, à faire, de tous les êtres humains. Dans ce cas-là ça passerait probablement le test de Turing, ça pourrait répondre correctement, mais on ne dirait probablement pas que ce système est intelligent. Il y a aussi le fait que c’est un système complètement gouverné par des lois, complètement prévisible, est-ce qu'on va considérer qu'il est intelligent ? C'est d'autant plus vrai avec une base de données.
On peut mettre ça en différenciation par rapport au test de Lovelace. Je ne sais pas si vous en aviez entendu parler. Ce test-là est basé sur le fait que l'intelligence est jugée par la créativité. Le principe c'est qu'une machine va être considérée intelligente quand elle arrive à surprendre le programmeur qui l'a créée. Ça donnerait probablement des résultats internes beaucoup plus intéressants qu'il ne pourrait y en avoir avec une simple base de données.

Le test de Turing : conclusion

Pour tirer une conclusion sur le test de Turing, finalement on ne devrait pas prendre le test de Turing comme une fin en soi mais plutôt comme une base de la réflexion. Déjà ça donne une base de réflexion sur les machines puisqu'on peut considérer que ça peut être une première étape. Et ensuite, si une machine a passé le test de Turing, on peut lui faire passer d'autres tests pour savoir si vraiment il y a une intelligence, qu'est-ce qu'il se passe à l'intérieur, etc. Ça permet aussi de lancer des réflexions sur nous-mêmes puisque, finalement, le test de Turing montre comment nous, en tant qu'êtres humains, nous allons être prêts à dire que quelque chose a de la conscience. Le problème c'est qu'on va juger de la conscience d'autre chose à partir de notre propre conscience. Est-ce que c'est légitime, est-ce que c'est pertinent, etc. ? Ça lance plein de discussions.
Donc le test de Turing vaut ce qu'il vaut, mais il a lancé plein d'autres discussions dans le domaine de la philosophie et ça c'est déjà pas mal en soi.

Eric Lefevre Ardant : Nous sommes dans les années 50. On a le test de Turing sous la main, les philosophes vont s'en emparer, mais aussi dans la continuité des théories sur l'intelligence humaine, sur la conscience de l'esprit.

Computationnalisme

Dans les années 50, 60, 70 on voit apparaître la théorie du computationnalisme qui est due à Jerry Fodor3 ainsi que Hilary Putnam]4.
Dans le computationnalisme, on conçoit l'esprit comme un système de traitement de l'information, un système formel. C'est donc quelque chose qui prend des entrées et qui fournit des sorties, la suite de la conversation, une sortie comportementale.
Dans cette théorie, la pensée fait appel à un raisonnement qui est gouverné par un système de règles, un système formel. Ça nous arrange bien dans l'intelligence artificielle parce que si notre pensée, notre intelligence est un système formel, alors puisque les machines sont elles-mêmes, à priori, des systèmes formels, ça va être relativement facile, il faut du travail mais ça peut être faisable d'implémenter quelque chose qui ressemble à la pensée humaine dans une machine. Malheureusement, ça a été réfuté assez rapidement par le théorème d'incomplétude, en tout cas à l'aide du théorème d'incomplétude de Kurt Gödel5.

La théorie d'incomplétude

Petite parenthèse sur Kurt Gödel. C'est un mathématicien du début du 20ᵉ siècle, première moitié du 20ᵉ siècle et, au début du 20ᵉ siècle, il y a un grand espoir dans la communauté des mathématiciens, c'est de définir la totalité des mathématiques avec un faible nombre d'axiomes, un nombre fini d'axiomes. Des personnes comme Bertrand Russell par exemple, ou Whitehead, consacrent une vingtaine d'années à écrire les Principia Mathematica où ils essayent de redéfinir la totalité des mathématiques avec un faible nombre d'axiomes, en partant du nombre 1, le concept du « plus », et ils construisent tout un tas de choses. Au bout de 20 ans ils se rendent bien compte que c'est du travail – en fait ils ont fait un tome en 20 ans, une première partie – et ils commencent à anticiper, ils se disent « on est reparti pour 20 ans pour la suite et finir notre grande œuvre ». Sur ce, en 1931, arrive Kurt Gödel, jeune mathématicien autrichien, et il démontre avec des outils mathématiques que pour tout système formel, en particulier les mathématiques, mais c'est vrai pour tout système formel, il y aura toujours des formules indémontrables, c'est-à-dire que soit notre système formel sera incomplet, soit il sera incohérent, mais dès qu'on a un système formel suffisamment riche, suffisamment intéressant, on va forcément tomber là-dessus.
Pour vous donner un exemple dans le langage naturel, en supposant que le langage naturel soit un système formel, imaginons que je dise la phrase suivante : « je suis en train de dire un mensonge ». Si je dis « je suis en train de dire un mensonge » c'est que cette phrase elle-même est un mensonge, donc, en fait, c'est plutôt « je suis en train de dire une vérité ». Évidemment c'est un paradoxe, on connaît tous ça, mais ce qui est intéressant c'est comment, en tant qu'être humain, je peux manipuler ce paradoxe ; je peux vous en parler, ça ne me pose pas de problème particulier, je suis capable à la fois de dire « c’est faux et pas faux », enfin ça dépend du contexte, etc.
Dans un système formel, ce n'est pas tellement possible, le système formel est fait pour déterminer si c'est faux ou pas faux. Ou, d'une autre façon, s'il essaye d'évaluer, il va tomber dans une régression infinie, il ne va jamais s'en sortir, il n'aura pas de réponse.

Pour résumer, le théorème d'incomplétude de Gödel s'applique à tout système formel. Dans tout système formel il va y avoir des formules indémontrables. Or nous, êtres humains, nous sommes capables de manipuler des formules indémontrables, nous sommes même capables de manipuler deux concepts complètement opposés dans notre tête, ça ne nous pose aucun problème, donc nous n'arriverons jamais à implémenter l'esprit humain dans un système formel, dans une machine basée sur les concepts de système formel tel que c'est le cas aujourd'hui. C’était un petit peu troublant, tout de même, pour les personnes qui s'intéressaient à ça.
Je précise que, de nos jours, on a du mal à dire si, finalement, l'esprit humain ne serait pas un petit peu formel ou si, peut-être, on pourrait simuler quelque chose d'un peu plus complexe, un système formel à partir d'un système formel. Finalement ça a été un peu remis en cause, mais si vous lisez la littérature vous allez tomber assez vite sur le théorème d'incomplétude de Kurt Gödel qui fait vraiment partie de la discussion. Même dans les années 80 on en parlait encore.

Fonctionnalisme

1960, Hilary Putnam, qui a travaillé avec Jerry Fodor que l'on vient de mentionner, nous propose le fonctionnalisme. C'est une réaction assez directe à la théorie de l'identité esprit-cerveau. Donc esprit-cerveau, il n'y a pas vraiment de distinction entre l'esprit et le cerveau, en fait notre esprit est simplement une configuration de notre cerveau à un instant T et il n’y a rien d’autre. Lui dit que la relation entre le physique et le mental n'est pas le bon problème. Ce qui est intéressant c'est comment fonctionnent les états mentaux. Donc, pour lui, on n'a pas de raison de supposer que des êtres hypothétiques comme des extra-terrestres ou des robots intelligents ne pourraient pas connaître la douleur simplement parce qu'ils n'utilisent pas du tout la même neurochimie que les êtres humains, les pieuvres ou les êtres vivants actuels. Il n'y a aucune de raison de supposer ça. Lui parle de réalisabilité multiple. La douleur peut être implémentée par différentes configurations physiques. Ce qui l’intéresse c'est quelque chose qu'il appelle l'isomorphisme fonctionnel – j'avais prévenu qu'il y avait des gros mots. On peut dire que deux systèmes sont isomorphes si le séquencement des états d'un des systèmes est le même séquencement des états d'un autre système. Il y a des états et ils se comportent de la même façon.
Plus concrètement, si on arrive à avoir un système formel ou une machine artificielle dont les états sont les mêmes que les états d'un être humain, on aura effectivement simulé un être humain. Nous aurons un système intelligent parce que ce seront les mêmes états ; il n'a pas trop expliqué comment on pourrait le faire !
En d'autres termes, il ne suffit d'avoir un comportement intelligent, il faut aussi que le comportement intelligent vienne des bonnes procédures ou des bons calculs. C'est ce qu'il propose, mais très rapidement ça va être réfuté par John Searle6. Nous sommes en 1980, John Searle va attaquer violemment le fonctionnalisme et d'autres théories également.

La chambre chinoise

Imaginons — c'est ce que nous propose John Searle — que nous avons à notre disposition une machine qui passe le test de Turing. Pouvons-nous dire, avons-nous envie de dire qu'elle est intelligente ?
Il va nous proposer une expérience de pensée qui s'appelle la chambre chinoise, qui a donné lieu à d'intenses débats dans les années qui ont suivi.
Imaginons que John Searle est enfermé dans une pièce, il a à sa disposition un gros livre dans lequel se trouvent des symboles, ainsi que des règles pour manipuler ces symboles. Dans cette pièce, il y a également une porte d'entrée, par laquelle passent des feuilles avec des symboles écrits dessus. John Searle prend cette feuille, considère les symboles, peut-être des ronds avec une barre dedans, des barres, des cercles. Il consulte les règles de son livre, les règles disent « lorsque tu as ce rond avec une barre dedans, écris un carré avec 3 petits points au-dessus, écris ça sur une feuille et passe la feuille par la porte de sortie ».
Nous avons donc quelque chose qui ressemblerait potentiellement à une machine de Turing. Il se trouve que ces symboles sont des signes du langage chinois. John Searle ne parle pas chinois et ne réalise même pas qu'il s'agit de signes de l'alphabet chinois. Néanmoins il arrive, en appliquant les règles de son livre, à considérer les symboles et à fournir des réponses en sortie.
S'il a à sa disposition un livre suffisamment riche, il va pouvoir maintenir une conversation cohérente. Donc un expérimentateur à l'extérieur de la chambre chinoise, de langue chinoise, pourra poser des questions en langue chinoise et recevoir des réponses qui feront sens. Et lui, n'aura pas de raison de supposer que ça n'est autre qu'un autre locuteur de la chambre chinoise. Donc cette machine passe le test de Turing. Tout cela, évidemment, est une expérience de pensée.
Pourtant John Searle, dans la pièce, ne fait qu'exécuter les commandes qui sont à sa disposition. John Searle regarde les symboles, reconnaît qu'il y a des cercles, ne comprend pas du tout le sens des signes chinois. Tout ce qu'il fait c'est appliquer des règles complètement mécaniquement. John Searle ne comprend pas la conversation qui a lieu.
Dans le reste de la chambre chinoise nous avons un gros livre, c'est un simple livre composé de règles, de symboles. Le livre n'est pas intelligent. Personne, dans cette salle, ne va dire que ce livre est intelligent. Qu'est ce qui nous reste ? Une porte d'entrée, une porte de sortie, c'est tout. Rien dans la chambre chinoise n'a d'intelligence, n'a de conscience de ce qui se passe.

Conclusion de John Searle : on ne peut pas dire que la chambre chinoise ait une réelle compréhension du chinois et, de même, on ne peut pas dire que le test de Turing nous permet de juger cette chambre chinoise comme intelligente. Même si elle a un comportement intelligent, elle n'est pas intelligente.

Comme je vous le disais ça a donné lieu à d'intenses débats et, en particulier, à de nombreuses objections. On va en parcourir quelques-unes.

L'objection du système

Première objection, l'objection du système. Les personnes qui présentent cette objection sont d'accord. Effectivement, aucun des composants de la chambre chinoise n'est intelligent individuellement : John Searle ne comprend pas le chinois, le livre ne comprend pas le chinois, les portes ne peuvent pas comprendre le chinois. Néanmoins, ce serait un petit peu comme dire que dans notre cerveau un neurone tout seul a la compréhension du chinois ou du français. Évidemment, un neurone n'aura pas la compréhension du français. Ça n'est pas ça qui est important. Pour ces personnes, ce qui est important, c'est que le système dans son entier a bien cette compréhension.
Donc pour ces personnes, il faut toujours considérer le système complet. Et c'est le système complet qui est intelligent. D'ailleurs, il arrive à supporter cette conversation.

Réponse de John Searle.
Imaginons que la personne qui se trouve dans la pièce apprenne par cœur les règles qui se trouvent dans le livre. C'est un très gros livre, mais la personne a une très bonne mémoire. La personne sort de la pièce, on lui propose une feuille avec de nouveaux signes chinois. La personne, par cœur, applique les règles et, mécaniquement toujours, écrit sur une nouvelle feuille des nouveaux symboles chinois pour la réponse.
Ça parait évident pour tout le monde que cette personne n'a toujours pas de compréhension du chinois. Elle ne sait toujours pas qu'elle manipule des symboles chinois. Elle ne sait toujours pas qu'on lui a demandé « bonjour ,comment ça va ? » et qu'elle a répondu « je vais bien ». Elle n'en a strictement aucune conscience.
Donc pour John Searle, le fait de considérer le système dans son entier ne change rien. Ce n'est pas parce qu'on arrive à avoir un seul élément qui fait tout qu'on a une intelligence par miracle. En fait, plus généralement, son argument c'est que, oui, la chambre chinoise arrive à manipuler la syntaxe des symboles, elle arrive à reconnaître des ronds avec des barres, elle arrive à écrire des carrés avec des traits dessus mais la syntaxe ce n'est pas la sémantique. Comprendre la syntaxe, comprendre la forme des choses n'est pas comprendre le sens des choses.
La syntaxe, qui est la seule chose que nos ordinateurs savent manipuler, des 0 et des 1, ce sont des symboles, même s'il n'y en a que deux, n'est pas suffisante pour obtenir la sémantique, pour obtenir la compréhension.

L'objection de l'esprit virtuel

Autre objection qui nous vient plutôt du canal historique de la recherche en intelligence artificielle, en particulier proposée par Marvin Minsky7. Pour lui et d'autres personnes, ce n'est pas important de savoir ce qui est intelligent. L'important c'est de savoir s'il y a création d'intelligence, s'il y a création de compréhension. L'idée c'est que le système contient une intelligence virtuelle de la même façon que nos ordinateurs contiennent des fichiers virtuels, des fenêtres virtuelles. En fait, on pourrait même imaginer que notre chambre chinoise simule deux esprits virtuels. Par exemple, si on avait deux livres, un en chinois et un en coréen, on aurait deux esprits virtuels, un qui serait capable de converser en chinois et un autre en coréen. En d'autres termes, ce n'est pas la chambre chinoise elle-même qui a l'intelligence, mais la chambre chinoise créé quelque chose, une intelligence virtuelle, si on veut le réceptacle de l'intelligence mais non pas le système physique lui-même. Le système n'est pas l'esprit.

Pour John Searle, c'est bien joli mais ça n'est qu'une simulation. Or, la simulation d'un orage, par exemple, aussi parfaite soit-elle, chaque goutte, chaque molécule, chaque atome, tout ce que vous voulez, ne va jamais mouiller qui que ce soit. On peut avoir une simulation parfaite, ça n'est pas pour ça qu'on a quelque chose de réel. Évidemment, son objection a eu d'autres objections. Certaines personnes, comme Nicholas Fern, avancent l'argument que oui, d'accord, ça ne marche pas pour les ouragans, mais si on simule, par exemple, une calculatrice, ça marche très bien. On rentre les valeurs et on obtient une valeur en sortie qui s'affiche sur l'ordinateur. C'est aussi bien qu'une calculatrice. Évidemment, la question est : est-ce que notre esprit est plus proche d'un ouragan ou plus proche d'une calculatrice ? Ils ne se sont pas encore permis de répondre à cette question !

L'objection du simulateur de cerveau

Un argument un petit peu similaire à la simulation de l'esprit virtuel c'est la simulation du cerveau physique.
Supposons que nous arrivions à simuler parfaitement le cerveau physique d'un locuteur de la chambre chinoise, donc chaque neurone, chaque synapse, chaque déclenchement électrique entre les neurones, et ce simulateur de cerveau de personne qui parle chinois comprendrait lui-même le chinois.
Inversement, de la même façon, si on dit que ce cerveau simulé ne comprend pas le chinois alors on devrait dire qu'une personne composée d'un cerveau comprenant le chinois ne comprend pas non plus le chinois. C'est le même argument. Si on a un simulateur de cerveau et on dit qu'il ne comprend pas le chinois alors le cerveau lui-même ne devrait pas non plus comprendre le chinois ; l'argument est le même. Il n'y aura pas de différence entre le programme implémenté par la chambre chinoise et le programme implémenté par un locuteur de la chambre chinoise.

Évidement pour John Searle ça ne change rien.
Imaginons que la personne dans la chambre ait à sa disposition une machine de Turing par exemple composée de tuyaux, de valves et d'eau qui passe dans les tuyaux. Cet ensemble de tuyaux imiterait parfaitement les neurones, les synapses, les déclenchements de signaux présents dans notre cerveau, mais ce ne sont que des tuyaux avec de l'eau qui passe. Le livre à la disposition de la personne dans la pièce ne décrirait plus comment manipuler les symboles mais comment ouvrir les valves aux bons endroits pour que l'eau parcoure les tuyaux d'une certaine façon et nous donne une réponse à la fin.
Il est toujours évident, pour John Searle, que la personne qui lit les livres et bouge les vannes, ne comprend pas le chinois. Encore une fois, elle ne fait qu'appliquer mécaniquement des règles.
Les tuyaux d'eau, eux-mêmes, sont des tuyaux d'eau, ils ne comprennent pas le chinois.
Ce n'est pas parce que nous disposons d'un simulateur de quelque chose de physique que nous allons créer de l'intelligence. En fait, le simulateur ne fait que simuler la structure formelle de la séquence de déclenchement des neurones et, avec des tuyaux d'eau, c'est sûr qu'on n'a pas quelque chose d'intelligent derrière.

Encore une fois, en d'autres termes, la simulation n'est pas la réalité, de la même façon que notre simulateur de tempête ne va jamais mouiller les vêtements de qui que ce soit.

L'objection du robot

Autre argument qui nous vient de Jerry Fodor, du computationnalisme, mais également de Daniel Dennett et d'autres personnes. Pour eux, le problème c'est que la chambre chinoise décrit finalement un simple ordinateur de bureau, comme nous en disposons nous-mêmes : on lui donne des données en entrée, ça fournit des données en sortie. Cet ordinateur ne dispose pas d'organes lui permettant de manipuler et ressentir les choses autour de lui. Or, ce ne serait pas complètement négligeable.
Imaginons que j'entretiens une conversation avec un autre être humain, des canards entrent dans la pièce, évidemment la discussion déraille complètement, on n'arrive plus à s'entendre, quelque chose se passe. Les canards se posent sur l'ordinateur, l'ordinateur s'en fiche complètement, il est toujours en train de dire « si, si, je vais bien, ne vous inquiétez pas ! »
L'argument n'est pas complètement négligeable, tout de même, parce que de nombreuses théories pensent que l'intelligence, en tout cas la compréhension, vient aux enfants en particulier en associant des mots à des choses qu'ils peuvent manipuler dans la vie réelle. Peut-être qu’en mentionnant le mot « canard » on montre des photos de canards aux enfants, ou alors ils visitent une ferme, ils regardent un film, ils entendent des canards dans la nature. La compréhension, l'intelligence viendrait aux enfants comme ça. C'est une théorie qui s'appelle l'externalisme sémantique. C'est l'idée que nous attribuons un sens à un mot par une connexion causale entre ce mot et un objet du monde physique.
En d'autres termes, pour ces personnes, un robot plus sophistiqué, disposant d'organes sensoriels, n'aurait pas les problèmes que soulève John Searle.

John Searle a une réponse.
Imaginons qu’en plus des questions qui sont posées à la personne dans la chambre chinoise, à la personne dans la pièce, il y ait également d'autres dispositifs, peut-être des rubans de papier infinis sur lesquels seraient affichés des symboles. Ces symboles, sans que la personne dans la pièce ne le sache, représenteraient des résultats obtenus par des capteurs à l'extérieur, peut-être un microphone, une caméra, et le livre de règles serait enrichi de règles prenant en compte ces symboles : « si tu reçois le symbole rond avec une barre en question mais que tu as vu passer un carré avec trois petits points en dessous sur une des feuilles, ou peut-être un enchaînement de symboles, alors donne cette nouvelle réponse ». Il n'y a pas de différence de nature entre ce ruban de symboles infini et les questions qui sont posées, tout le monde sera d'accord pour dire que c'est à peu près la même chose, même si ces symboles sont toujours de langue chinoise.
Pour la personne dans la pièce, ces symboles n'ont toujours aucun sens. Elle est simplement capable de les associer mécaniquement aux d'autres symboles.
Donc John Searle estime que cette objection n'apporte absolument rien à son argument, c'est simplement une reformulation du même problème.

L'objection des autres esprits

L'objection des autres esprits, qui a été anticipée par Alan Turing dans son papier sur le jeu de l'imitation.
Supposons que je parle à une personne humaine, je vais supposer que la personne avec qui je converse est intelligente et pourtant, je ne sais pas ce qui se passe à l'intérieur. J'utilise cette convention parce que je ne peux pas vraiment facilement faire autrement. Je converse avec quelqu'un, j'ai des réponses, je finis par supposer que cette personne est intelligente.
Si j'applique ce principe aux êtres humains, je devrais aussi utiliser le même principe pour des êtres artificiels, il n'y a pas de raison que ce soit très différent. Alan Turing parle de « convention polie ». C'est plus poli de supposer que les autres sont intelligents.

Réponse de Searle.
Le problème n'est pas tellement de savoir comment nous savons que quelque chose est intelligent : est-ce qu'on l'ouvre ou simplement par le comportement. Pour lui, le problème c'est de savoir ce qu'on veut dire quand on associe de l'intelligence à quelque chose ou à quelqu'un. Quelle est la chose que j'associe à cette entité quand je dis qu'elle est intelligence ? Or, ça ne peut pas être simplement que cette entité est capable de manipuler des données en entrée et de me fournir des données en sortie. Ça on l'a déjà avec des systèmes non-intelligents. Nos ordinateurs font ça, personne ne va dire que nos ordinateurs sont intelligents. Or, si on se contente de dire que lorsque je donne des choses en entrée ça me donne des choses en sortie, on ne fait que décrire la même chose.
Donc un système qui n'est pas intelligent, comme un système intelligent, ce serait la même définition, ça ne nous avance pas beaucoup.

L'objection de la combinaison

Enfin l'objection de la combinaison.
Imaginons que nous ayons à notre disposition un robot, un androïde, composé d'un ordinateur peut-être capable de simuler un cerveau parfaitement, avec des organes sensoriels et avec une apparence en tout point indistincte d'un autre être humain. Alors John Searle est d'accord. Oui, il serait face à ce robot, il dirait effectivement que c'est un être humain et attribuerait de l'intelligence à cet être humain. Néanmoins, le mystère est levé dès qu'il obtient plus d'informations sur ce qui se passe. Si quelqu'un lui dit : « En fait, finalement tu sais, ce n'est qu'un ordinateur qui manipule des 0 des 1 », eh bien là, la magie va disparaître. Il va dire « non, ce n'est pas possible. Si je sais que c'est un appareil qui ne fait que manipuler des 0 et des 1, qui n'a pas de compréhension, alors je vais arrêter moi-même d'attribuer de l'intelligence, de l’intentionnalité à cet appareil. »

La chambre chinoise : conclusion

Que conclure de la chambre chinoise ?
D'abord on voit bien que John Searle attaque très directement l'hypothèse comportementale de Turing, le fait que le comportement est suffisant. Pour lui, clairement, la chambre chinoise démontre que ce n'est pas suffisant.
Il attaque aussi le fonctionnalisme de Hilary Putnam, l'idée que simuler une procédure d'un cerveau intelligent serait suffisant. Clairement, il a démontré que pour lui ça ne suffirait pas.
Finalement il ne resterait peut-être que quelque chose comme la théorie de l'identité esprit-cerveau, ou peut-être une variante de la théorie du dualiste.

La position de John Searle c'est que la conscience, la compréhension, nécessitent une certaine machinerie biologique telle que celle trouvée dans nos cerveaux. Il ne va pas jusqu'à pointer du doigt ce qu'elle est, il dit qu'il y a quelque chose d'autre, et que cette machinerie a un pouvoir causal qui permet aux êtres humains de posséder la conscience. Finalement, pour John Searle, c'est le cerveau qui est cause de la conscience, position qu'on appelle le naturalisme biologique.

L'argument de la chambre chinoise est très controversé, il a divisé les opinions sur sa pertinence mais aussi sur les réponses qu’il avait apportées. Je vous en ai donné un aperçu, il y a des réponses aux réponses aux réponses aux réponses et, même encore aujourd'hui, c'est sujet à discussion. Certains philosophes comme Daniel Denett8 ont été très agressifs contre John Searle qui s'est permis de répondre aussi agressivement.

Pour la fin, je voudrais citer à nouveau Alan Turing et John Searle.
Alan Turing, dans son papier sur le jeu de l'imitation, nous dit : « Je ne veux pas donner l'impression que je pense qu'il n'y a pas de mystère en ce qui concerne la conscience. Il y a, par exemple, un paradoxe dans les tentatives de la localiser. Mais je ne pense pas que ces mystères ont besoin d'être résolus pour nous permettre de répondre à la question : une machine peut-elle penser ?
Pour John Searle, ce sont précisément ces mystères qui sont intéressants : « Il n'est pas impossible que nous créerons un jour un système qui se comporte intelligemment », mais il lui apparaît que nous ne pourrons pas créer une intelligence qui a sa propre conscience avec les bases théoriques telles que la machine de Turing.

Vous avez compris que la philosophie de l'intelligence artificielle est un sujet fertile, récent, qui a des liens forts avec de nombreuses autres disciplines, la philosophie de la conscience, la neurobiologie, l'informatique, la robotique Nous espérons que vous allez continuer la lecture à la suite de cette présentation.
Merci de votre attention.