Chambre chinoise - Chinese room

L' argument de la chambre chinoise soutient qu'un ordinateur numérique exécutant un programme ne peut pas avoir un " esprit ", une " compréhension " ou une " conscience ", quelle que soit l'intelligence ou l'aspect humain du programme pour que l'ordinateur se comporte. L'argument a été présenté par le philosophe John Searle dans son article, "Minds, Brains, and Programs", publié dans Behavioral and Brain Sciences en 1980. Des arguments similaires ont été présentés par Gottfried Leibniz (1714), Anatoly Dneprov (1961), Lawrence Davis ( 1974) et Ned Block (1978). La version de Searle a été largement discutée au cours des années qui ont suivi. La pièce maîtresse de l'argumentation de Searle est une expérience de pensée connue sous le nom de chambre chinoise .

L'argument est dirigé contre les positions philosophiques du fonctionnalisme et du computationalisme , qui soutiennent que l'esprit peut être considéré comme un système de traitement de l'information fonctionnant sur des symboles formels, et que la simulation d'un état mental donné suffit à sa présence. Plus précisément, l'argument vise à réfuter une position que Searle appelle une IA forte : "L'ordinateur correctement programmé avec les bonnes entrées et sorties aurait ainsi un esprit exactement dans le même sens que les êtres humains ont un esprit."

Bien qu'il ait été présenté à l'origine en réaction aux déclarations de chercheurs en intelligence artificielle (IA), ce n'est pas un argument contre les objectifs de la recherche traditionnelle sur l'IA, car il ne montre pas de limite quant à la quantité de comportements « intelligents » qu'une machine peut afficher. . L'argument s'applique uniquement aux ordinateurs numériques exécutant des programmes et ne s'applique pas aux machines en général.

Expérience de pensée en chambre chinoise

L' expérience de pensée de Searle commence par cette prémisse hypothétique : supposons que la recherche sur l' intelligence artificielle ait réussi à construire un ordinateur qui se comporte comme s'il comprenait le chinois . Il prend des caractères chinois en entrée et, en suivant les instructions d'un programme informatique , produit d'autres caractères chinois, qu'il présente en sortie. Supposons, dit Searle, que cet ordinateur accomplisse sa tâche de manière si convaincante qu'il réussisse confortablement le test de Turing : il convainc un locuteur chinois que le programme est lui-même un locuteur chinois vivant. À toutes les questions que la personne pose, elle apporte des réponses appropriées, de sorte que tout locuteur chinois serait convaincu qu'il s'adresse à un autre être humain parlant chinois.

La question à laquelle Searle veut répondre est la suivante : la machine « comprend-elle » littéralement le chinois ? Ou simule-t- il simplement la capacité de comprendre le chinois ? Searle appelle la première position « IA forte » et la seconde « IA faible ».

Searle suppose alors qu'il est dans une pièce fermée et qu'il a un livre avec une version anglaise du programme informatique, ainsi que suffisamment de papiers, crayons, gommes et classeurs. Searle pouvait recevoir des caractères chinois via une fente dans la porte, les traiter conformément aux instructions du programme et produire des caractères chinois en sortie. Si l'ordinateur avait réussi le test de Turing de cette façon, il s'ensuit, dit Searle, qu'il le ferait aussi, simplement en exécutant le programme manuellement.

Searle affirme qu'il n'y a pas de différence essentielle entre les rôles de l'ordinateur et de lui-même dans l'expérience. Chacun suit simplement un programme, étape par étape, produisant un comportement qui est ensuite interprété par l'utilisateur comme démontrant une conversation intelligente. Cependant, Searle lui-même ne serait pas en mesure de comprendre la conversation. (« Je ne parle pas un mot de chinois », précise-t-il.) Par conséquent, soutient-il, il s'ensuit que l'ordinateur ne serait pas non plus en mesure de comprendre la conversation.

Searle soutient que, sans « compréhension » (ou « intentionnalité »), nous ne pouvons pas décrire ce que fait la machine comme « pensée » et, puisqu'elle ne pense pas, elle n'a pas d'« esprit » dans le sens normal de le mot. Par conséquent, il conclut que l'hypothèse « IA forte » est fausse.

Histoire

Gottfried Leibniz a fait un argument similaire en 1714 contre le mécanisme (la position selon laquelle l'esprit est une machine et rien de plus). Leibniz a utilisé l'expérience de pensée de l'expansion du cerveau jusqu'à ce qu'il ait la taille d'un moulin . Leibniz a eu du mal à imaginer qu'un « esprit » capable de « perception » puisse être construit en utilisant uniquement des procédés mécaniques.

Le cybernéticien russe Anatoly Dneprov a présenté un argument essentiellement identique en 1961, sous la forme de la nouvelle « The Game ». Dans celui-ci, un stade de personnes fait office d'interrupteurs et de cellules mémoire mettant en œuvre un programme pour traduire une phrase en portugais, une langue qu'aucun d'entre eux ne connaît. Le jeu était organisé par un "Professeur Zarubin" pour répondre à la question "Les machines mathématiques peuvent-elles penser ?" S'exprimant par l'intermédiaire de Zarubin, Dneprov écrit que "la seule façon de prouver que les machines peuvent penser est de vous transformer en machine et d'examiner votre processus de réflexion". et il conclut, comme le fait Searle, "Nous avons prouvé que même la simulation la plus parfaite de la pensée machine n'est pas le processus de pensée lui-même."

En 1974, Lawrence Davis imagina dupliquer le cerveau en utilisant des lignes téléphoniques et des bureaux occupés par des personnes, et en 1978, Ned Block envisagea l'ensemble de la population chinoise impliquée dans une telle simulation cérébrale. Cette expérience de pensée est appelée le cerveau chinois , aussi la « Nation chinoise » ou le « Chinese Gym ».

John Searle en décembre 2005

La version de Searle est apparue dans son article de 1980 "Minds, Brains, and Programs", publié dans Behavioral and Brain Sciences . Il est finalement devenu « l'article cible le plus influent de la revue », générant un nombre énorme de commentaires et de réponses au cours des décennies suivantes, et Searle a continué à défendre et à affiner l'argument dans de nombreux articles, articles de vulgarisation et livres. David Cole écrit que « l'argument de la Chambre chinoise a probablement été l'argument philosophique le plus largement discuté en sciences cognitives à apparaître au cours des 25 dernières années ».

La majeure partie de la discussion consiste en des tentatives pour le réfuter. "L'écrasante majorité", note le rédacteur en chef de BBS Stevan Harnad , "pense toujours que l'argument de la chambre chinoise est complètement faux". Le volume considérable de la littérature qui s'est développée autour d'elle a inspiré Pat Hayes à commenter que le domaine des sciences cognitives devrait être redéfini comme "le programme de recherche en cours pour montrer que l'argument de la chambre chinoise de Searle est faux".

L'argument de Searle est devenu "quelque chose d'un classique en sciences cognitives", selon Harnad. Varol Akman est d' accord et a décrit l'article original comme « un exemple de clarté et de pureté philosophiques ».

Philosophie

Bien que l'argument de la Chambre chinoise ait été présenté à l'origine en réaction aux déclarations de chercheurs en intelligence artificielle , les philosophes en sont venus à le considérer comme une partie importante de la philosophie de l'esprit . C'est un défi au fonctionnalisme et à la théorie computationnelle de l'esprit , et est lié à des questions telles que le problème corps-esprit , le problème des autres esprits , le problème de la mise à la terre des symboles et le problème difficile de la conscience .

IA puissante

Searle a identifié une position philosophique qu'il appelle « une IA forte » :

L'ordinateur correctement programmé avec les bonnes entrées et sorties aurait ainsi un esprit exactement dans le même sens que les êtres humains ont des esprits.

La définition dépend de la distinction entre simuler un esprit et avoir réellement un esprit. Searle écrit que « selon Strong AI, la bonne simulation est vraiment un esprit. Selon Weak AI, la bonne simulation est un modèle de l'esprit.

Cette affirmation est implicite dans certaines des déclarations des premiers chercheurs et analystes en IA. Par exemple, en 1955, le fondateur de l'IA Herbert A. Simon a déclaré qu'« il existe maintenant dans le monde des machines qui pensent, qui apprennent et créent ». Simon, avec Allen Newell et Cliff Shaw , après avoir terminé le premier programme d'"IA", The Logic Theorist , a affirmé qu'ils avaient "résolu le vénérable problème corps-esprit , expliquant comment un système composé de matière peut avoir les propriétés de l' esprit. ." John Haugeland a écrit que « AI ne veut que l'article authentique : des machines avec des esprits , au sens plein et littéral. Ce n'est pas de la science-fiction, mais de la vraie science, basée sur une conception théorique aussi profonde qu'audacieuse : à savoir, à la racine, les ordinateurs nous-mêmes ."

Searle attribue également les affirmations suivantes aux partisans d'une IA forte :

  • Les systèmes d'IA peuvent être utilisés pour expliquer l'esprit ;
  • L'étude du cerveau n'a rien à voir avec l'étude de l'esprit ; et
  • Le test de Turing est adéquat pour établir l'existence d'états mentaux.

IA forte en tant que computationalisme ou fonctionnalisme

Dans des présentations plus récentes de l'argument de la chambre chinoise, Searle a identifié « l'IA forte » comme le « fonctionnalisme informatique » (un terme qu'il attribue à Daniel Dennett ). Le fonctionnalisme est une position de la philosophie moderne de l'esprit qui soutient que nous pouvons définir les phénomènes mentaux (tels que les croyances, les désirs et les perceptions) en décrivant leurs fonctions les uns par rapport aux autres et au monde extérieur. Parce qu'un programme informatique peut représenter avec précision les relations fonctionnelles en tant que relations entre les symboles, un ordinateur peut avoir des phénomènes mentaux s'il exécute le bon programme, selon le fonctionnalisme.

Stevan Harnad soutient que les représentations de Searle d'une IA forte peuvent être reformulées en "principes reconnaissables du calcul , une position (contrairement à "une IA forte") qui est en fait détenue par de nombreux penseurs, et qui mérite donc d'être réfutée". L'informatique est la position de la philosophie de l'esprit qui soutient que l' esprit peut être décrit avec précision comme un système de traitement de l' information.

Chacun des éléments suivants, selon Harnad, est un « principe » du computationalisme :

  • Les états mentaux sont des états informatiques (c'est pourquoi les ordinateurs peuvent avoir des états mentaux et aider à expliquer l'esprit) ;
  • Les états de calcul sont indépendants de la mise en œuvre - en d'autres termes, c'est le logiciel qui détermine l'état de calcul, pas le matériel (c'est pourquoi le cerveau, étant du matériel, n'est pas pertinent) ; et cela
  • La mise en œuvre n'étant pas importante, les seules données empiriques qui comptent sont le fonctionnement du système ; le test de Turing est donc définitif.

IA forte contre naturalisme biologique

Searle défend une position philosophique qu'il appelle « naturalisme biologique » : que la conscience et la compréhension nécessitent une machinerie biologique spécifique que l'on trouve dans le cerveau. Il écrit que « les cerveaux provoquent les esprits » et que « les phénomènes mentaux humains réels [sont] dépendants des propriétés physico-chimiques réelles des cerveaux humains réels ». Searle soutient que cette machinerie (connue en neurosciences comme les « corrélats neuronaux de la conscience ») doit avoir des pouvoirs causaux qui permettent l'expérience humaine de la conscience. La croyance de Searle en l'existence de ces pouvoirs a été critiquée.

Searle n'est pas en désaccord avec l'idée que les machines peuvent avoir une conscience et une compréhension, car, comme il l'écrit, « nous sommes précisément de telles machines ». Searle soutient que le cerveau est, en fait, une machine, mais que le cerveau donne naissance à la conscience et à la compréhension en utilisant des machines non informatiques. Si les neurosciences sont capables d'isoler le processus mécanique qui donne naissance à la conscience, alors Searle admet qu'il peut être possible de créer des machines qui ont une conscience et une compréhension. Cependant, sans la machinerie spécifique requise, Searle ne croit pas que la conscience puisse se produire.

Le naturalisme biologique implique que l'on ne peut pas déterminer si l'expérience de la conscience se produit simplement en examinant le fonctionnement d'un système, car la machinerie spécifique du cerveau est essentielle. Ainsi, le naturalisme biologique s'oppose directement à la fois au béhaviorisme et au fonctionnalisme (y compris le « fonctionnalisme informatique » ou « l'IA forte »). Le naturalisme biologique est similaire à la théorie de l'identité (la position selon laquelle les états mentaux sont « identiques à » ou « composés de » événements neurologiques); cependant, Searle a des objections techniques spécifiques à la théorie de l'identité. Le naturalisme biologique de Searle et sa forte IA s'opposent tous deux au dualisme cartésien , l'idée classique selon laquelle le cerveau et l'esprit sont constitués de "substances" différentes. En effet, Searle accuse l'IA forte de dualisme, écrivant que "une IA forte n'a de sens que compte tenu de l'hypothèse dualiste selon laquelle, en ce qui concerne l'esprit, le cerveau n'a pas d'importance".

La conscience

La présentation originale de Searle mettait l'accent sur la « compréhension » – c'est-à-dire les états mentaux avec ce que les philosophes appellent « l' intentionnalité » – et n'abordait pas directement d'autres idées étroitement liées telles que la « conscience ». Cependant, dans des présentations plus récentes, Searle a inclus la conscience comme la véritable cible de l'argument.

Les modèles informatiques de la conscience ne sont pas suffisants en eux-mêmes pour la conscience. Le modèle informatique de la conscience se tient à la conscience de la même manière que le modèle informatique de n'importe quoi se tient au domaine modélisé. Personne ne suppose que le modèle informatique des tempêtes de pluie à Londres nous laissera tous mouillés. Mais ils font l'erreur de supposer que le modèle informatique de la conscience est en quelque sorte conscient. C'est la même erreur dans les deux cas.

—  John R. Searle, Conscience et langage, p. 16

David Chalmers écrit « qu'il est assez clair que la conscience est à la racine du problème » de la salle chinoise.

Colin McGinn soutient que la salle chinoise fournit des preuves solides que le problème difficile de la conscience est fondamentalement insoluble. L'argument, pour être clair, n'est pas de savoir si une machine peut être consciente, mais de savoir si elle (ou toute autre chose d'ailleurs) peut être démontrée comme étant consciente. Il est clair que toute autre méthode pour sonder l'occupant d'une chambre chinoise présente en principe les mêmes difficultés que l'échange de questions et réponses en chinois. Il n'est tout simplement pas possible de deviner si une agence consciente ou une simulation intelligente habite la pièce.

Searle soutient que cela n'est vrai que pour un observateur à l' extérieur de la pièce. Le but de l'expérience de pensée est de mettre quelqu'un à l' intérieur de la pièce, où il peut observer directement les opérations de la conscience. Searle prétend que de son point de vue dans la pièce, il n'y a rien qu'il puisse voir qui puisse imaginable susciter la conscience, à part lui-même, et il n'a clairement pas un esprit qui puisse parler chinois.

Éthique appliquée

Assis dans le centre d'information de combat à bord d' un navire de guerre - proposé comme un analogue de la vie réelle à la salle chinoise

Patrick Hew a utilisé l'argument de la salle chinoise pour déduire les exigences des systèmes de commandement et de contrôle militaires s'ils doivent préserver l' agence morale d' un commandant . Il a établi une analogie entre un commandant dans leur centre de commandement et la personne dans la salle chinoise, et l'a analysée sous une lecture des notions d'Aristote d'"obligatoire" et d'"ignorance" . L'information pourrait être « down-convertie » du sens aux symboles, et manipulée symboliquement, mais l'agence morale pourrait être sapée s'il y avait une « conversion ascendante » inadéquate en sens. Hew a cité des exemples de l' incident de l' USS Vincennes .

L'informatique

L'argument de la chambre chinoise est avant tout un argument de philosophie de l'esprit , et tant les grands informaticiens que les chercheurs en intelligence artificielle le considèrent comme sans rapport avec leur domaine. Cependant, plusieurs concepts développés par des informaticiens sont essentiels à la compréhension de l'argument, y compris le traitement des symboles , des machines de Turing , Turing complet , et le test de Turing .

Recherche IA forte contre IA

Les arguments de Searle ne sont généralement pas considérés comme un problème pour la recherche sur l'IA. Stuart Russell et Peter Norvig observent que la plupart des chercheurs en IA "ne se soucient pas de l'hypothèse forte de l'IA - tant que le programme fonctionne, ils ne se soucient pas de savoir si vous l'appelez une simulation de l'intelligence ou de l'intelligence réelle". La mission principale de la recherche sur l' intelligence artificielle est uniquement de créer des systèmes utiles qui agissent intelligemment, et peu importe si l'intelligence est « simplement » une simulation.

Searle ne conteste pas que la recherche sur l'IA peut créer des machines capables d'un comportement très intelligent. L'argument de la chambre chinoise laisse ouverte la possibilité qu'une machine numérique puisse être construite qui agisse plus intelligemment qu'une personne, mais n'ait pas un esprit ou une intentionnalité de la même manière que les cerveaux .

L'« IA forte » de Searle ne doit pas être confondue avec « l' IA forte » telle que définie par Ray Kurzweil et d'autres futuristes, qui utilisent le terme pour décrire l'intelligence artificielle qui rivalise ou dépasse l'intelligence humaine. Kurzweil s'intéresse principalement à la quantité d'intelligence affichée par la machine, alors que l'argument de Searle ne fixe aucune limite à cela. Searle soutient que même une machine super -intelligente n'aurait pas nécessairement un esprit et une conscience.

essai de Turing

L'« interprétation standard » du test de Turing, dans laquelle le joueur C, l'interrogateur, est chargé d'essayer de déterminer quel joueur – A ou B – est un ordinateur et lequel est un humain. L'interrogateur se limite à utiliser les réponses aux questions écrites pour prendre sa décision. Image adaptée de Saygin et al. 2000.

La salle chinoise implémente une version du test de Turing . Alan Turing a introduit le test en 1950 pour aider à répondre à la question « les machines peuvent-elles penser ? Dans la version standard, un juge humain s'engage dans une conversation en langage naturel avec un humain et une machine conçue pour générer des performances indiscernables de celles d'un être humain. Tous les participants sont séparés les uns des autres. Si le juge ne peut pas distinguer de manière fiable la machine de l'humain, la machine est réputée avoir réussi le test.

Turing a ensuite examiné chaque objection possible à la proposition « les machines peuvent penser », et a constaté qu'il existe des réponses simples et évidentes si la question est démystifiée de cette manière. Il n'avait cependant pas l'intention que le test mesure la présence de "conscience" ou de "compréhension". Il ne croyait pas que cela était pertinent pour les questions qu'il abordait. Il a écrit:

Je ne veux pas donner l'impression que je pense qu'il n'y a pas de mystère sur la conscience. Il y a, par exemple, quelque chose d'un paradoxe lié à toute tentative de le localiser. Mais je ne pense pas que ces mystères doivent nécessairement être résolus avant que nous puissions répondre à la question qui nous préoccupe dans cet article.

Pour Searle, en tant que philosophe étudiant la nature de l' esprit et de la conscience , ce sont les mystères pertinents. La salle chinoise est conçue pour montrer que le test de Turing est insuffisant pour détecter la présence de conscience, même si la salle peut se comporter ou fonctionner comme le ferait un esprit conscient.

Traitement des symboles

La salle chinoise (et tous les ordinateurs modernes) manipulent des objets physiques afin d'effectuer des calculs et des simulations. Les chercheurs en IA Allen Newell et Herbert A. Simon ont appelé ce type de machine un système de symboles physiques . Il est également équivalent aux systèmes formels utilisés dans le domaine de la logique mathématique .

Searle insiste sur le fait que ce type de manipulation de symboles est syntaxique (empruntant un terme à l'étude de la grammaire ). L'ordinateur manipule les symboles en utilisant une forme de règles de syntaxe , sans aucune connaissance de la sémantique du symbole (c'est-à-dire de leur signification ).

Newell et Simon avaient conjecturé qu'un système de symboles physiques (comme un ordinateur numérique) possédait toutes les machines nécessaires à une "action intelligente générale", ou, comme on l'appelle aujourd'hui, l'intelligence artificielle générale . Ils ont formulé cela comme une position philosophique, l' hypothèse du système de symboles physiques : "Un système de symboles physiques a les moyens nécessaires et suffisants pour une action intelligente générale." L'argument de la chambre chinoise ne réfute pas cela, car il est formulé en termes d'"action intelligente", c'est-à-dire le comportement extérieur de la machine, plutôt que la présence ou l'absence de compréhension, de conscience et d'esprit.

Chambre chinoise et complétude de Turing

La salle chinoise a un design analogue à celui d'un ordinateur moderne. Il a une architecture Von Neumann , qui consiste en un programme (le livre d'instructions), de la mémoire (les papiers et les classeurs), un processeur qui suit les instructions (l'homme) et un moyen d'écrire des symboles en mémoire (le crayon et gomme). Une machine avec cette conception est connue en informatique théorique sous le nom de " Turing complet ", car elle possède la machinerie nécessaire pour effectuer tout calcul qu'une machine de Turing peut faire, et donc elle est capable de faire une simulation étape par étape de toute autre machine numérique, avec suffisamment de mémoire et de temps. Alan Turing écrit, "tous les ordinateurs numériques sont dans un sens équivalents." La thèse largement acceptée de Church-Turing soutient que toute fonction calculable par une procédure efficace est calculable par une machine de Turing.

L'exhaustivité de Turing de la salle chinoise implique qu'elle peut faire tout ce que n'importe quel autre ordinateur numérique peut faire (bien que beaucoup, beaucoup plus lentement). Ainsi, si la salle chinoise ne contient pas ou ne peut pas contenir un esprit de langue chinoise, alors aucun autre ordinateur numérique ne peut contenir un esprit. Certaines réponses à Searle commencent par affirmer que la pièce, telle que décrite, ne peut pas avoir un esprit de langue chinoise. Les arguments de cette forme, selon Stevan Harnad , ne sont « aucune réfutation (mais plutôt une affirmation) » de l'argument de la chambre chinoise, car ces arguments impliquent en réalité qu'aucun ordinateur numérique ne peut avoir d'esprit.

Certains critiques, comme Hanoch Ben-Yami, soutiennent que la salle chinoise ne peut pas simuler toutes les capacités d'un ordinateur numérique, comme déterminer l'heure actuelle.

Argumentaire complet

Searle a produit une version plus formelle de l'argumentation dont la Chinese Room fait partie. Il a présenté la première version en 1984. La version donnée ci-dessous date de 1990. La seule partie de l'argument qui devrait être controversée est A3 et c'est ce point que l'expérience de pensée chinoise est censée prouver.

Il commence par trois axiomes :

(A1) "Les programmes sont formels ( syntaxique )."
Un programme utilise la syntaxe pour manipuler des symboles et ne prête aucune attention à la sémantique des symboles. Il sait où placer les symboles et comment les déplacer, mais il ne sait pas ce qu'ils représentent ou ce qu'ils signifient. Pour le programme, les symboles ne sont que des objets physiques comme les autres.
(A2) "Les esprits ont un contenu mental ( sémantique )."
Contrairement aux symboles utilisés par un programme, nos pensées ont un sens : elles représentent des choses et nous savons ce qu'elles représentent.
(A3) "La syntaxe en elle-même n'est ni constitutive ni suffisante pour la sémantique."
C'est ce que l'expérience de pensée de la chambre chinoise est censée prouver : la chambre chinoise a une syntaxe (parce qu'il y a un homme à l'intérieur qui déplace des symboles). La salle chinoise n'a pas de sémantique (parce que, selon Searle, il n'y a personne ou rien dans la salle qui comprend ce que signifient les symboles). Par conséquent, avoir une syntaxe ne suffit pas pour générer de la sémantique.

Searle postule que ceux-ci mènent directement à cette conclusion :

(C1) Les programmes ne sont ni constitutifs ni suffisants pour les esprits.
Cela devrait suivre sans controverse des trois premiers : Les programmes n'ont pas de sémantique. Les programmes n'ont qu'une syntaxe, et la syntaxe est insuffisante pour la sémantique. Chaque esprit a une sémantique. Par conséquent, aucun programme n'est un esprit.

Cette grande partie de l'argument est destinée à montrer que l' intelligence artificielle ne peut jamais produire une machine avec un esprit en écrivant des programmes qui manipulent des symboles. Le reste de l'argument aborde une question différente. Le cerveau humain exécute-t-il un programme ? En d'autres termes, la théorie computationnelle de l'esprit est-elle correcte ? Il commence par un axiome destiné à exprimer le consensus scientifique moderne de base sur les cerveaux et les esprits :

(A4) Les cerveaux causent les esprits.

Searle prétend que nous pouvons déduire « immédiatement » et « trivialement » que :

(C2) Tout autre système capable de provoquer des esprits devrait avoir des pouvoirs causaux (au moins) équivalents à ceux des cerveaux.
Les cerveaux doivent avoir quelque chose qui fait exister un esprit. La science n'a pas encore déterminé ce que c'est exactement, mais cela doit exister, car les esprits existent. Searle l'appelle "pouvoirs causaux". Les "pouvoirs causaux" sont tout ce que le cerveau utilise pour créer un esprit. Si quelque chose d'autre peut faire exister un esprit, il doit avoir des "pouvoirs causaux équivalents". « Pouvoirs causaux équivalents » est tout ce qui pourrait être utilisé pour se faire une idée.

Et de là il tire les conclusions suivantes :

(C3) Tout artefact produisant des phénomènes mentaux, tout cerveau artificiel, devrait être capable de dupliquer les pouvoirs causals spécifiques du cerveau, et il ne pourrait pas le faire simplement en exécutant un programme formel.
Cela découle de C1 et C2 : puisqu'aucun programme ne peut produire un esprit et que des « pouvoirs causaux équivalents » produisent des esprits, il s'ensuit que les programmes n'ont pas de « pouvoirs causaux équivalents ».
(C4) La façon dont le cerveau humain produit réellement des phénomènes mentaux ne peut pas être uniquement due à l'exécution d'un programme informatique.
Puisque les programmes n'ont pas de « pouvoirs causaux équivalents », les « pouvoirs causaux équivalents » produisent des esprits et les cerveaux produisent des esprits, il s'ensuit que les cerveaux n'utilisent pas de programmes pour produire des esprits.

réponses

Les réponses à l'argument de Searle peuvent être classées selon ce qu'elles prétendent montrer :

  • Ceux qui identifient qui parle chinois
  • Ceux qui montrent comment des symboles sans signification peuvent devenir significatifs
  • Ceux qui suggèrent que la salle chinoise devrait être repensée d'une manière ou d'une autre
  • Ceux qui soutiennent que l'argument de Searle est trompeur
  • Ceux qui soutiennent que l'argument fait de fausses hypothèses sur l'expérience consciente subjective et ne prouve donc rien

Certains des arguments (robot et simulation cérébrale, par exemple) appartiennent à plusieurs catégories.

Systèmes et réponses de l'esprit virtuel : trouver l'esprit

Ces réponses tentent de répondre à la question : puisque l'homme dans la pièce ne parle pas chinois, est « l'esprit » qui parle chinois ? Ces réponses abordent les questions ontologiques clés de l' esprit contre le corps et de la simulation contre la réalité. Toutes les réponses qui identifient l'esprit dans la pièce sont des versions de « la réponse du système ».

Réponse du système

La version de base soutient que c'est « tout le système » qui comprend le chinois. Alors que l'homme ne comprend que l'anglais, lorsqu'il est combiné avec le programme, du papier brouillon, des crayons et des classeurs, ils forment un système qui peut comprendre le chinois. « Ici, la compréhension n'est pas attribuée au simple individu, mais plutôt à tout ce système dont il fait partie », explique Searle. Le fait que l'homme ne comprenne pas le chinois n'a pas d'importance, car seul le système dans son ensemble compte.

Searle note que (dans cette version simple de la réponse) le « système » n'est rien de plus qu'une collection d'objets physiques ordinaires ; il accorde le pouvoir de compréhension et de conscience à « la conjonction de cette personne et de bouts de papier » sans faire aucun effort pour expliquer comment cette pile d'objets est devenue un être conscient et pensant. Searle soutient qu'aucune personne raisonnable ne devrait être satisfaite de la réponse, à moins qu'elle ne soit « sous l'emprise d'une idéologie » ; Pour que cette réponse soit plausible à distance, il faut tenir pour acquis que la conscience peut être le produit d'un "système" de traitement de l'information et ne nécessite rien qui ressemble à la biologie réelle du cerveau.

Searle répond alors en simplifiant cette liste d'objets physiques : il demande ce qui se passe si l'homme mémorise les règles et garde une trace de tout dans sa tête ? Alors tout le système consiste en un seul objet : l'homme lui-même. Searle soutient que si l'homme ne comprend pas le chinois, alors le système ne comprend pas non plus le chinois car maintenant "le système" et "l'homme" décrivent tous deux exactement le même objet.

Les critiques de la réponse de Searle soutiennent que le programme a permis à l'homme d'avoir deux esprits dans une tête. Si nous supposons qu'un « esprit » est une forme de traitement de l'information, alors la théorie du calcul peut rendre compte de deux calculs se produisant à la fois, à savoir (1) le calcul pour la programmabilité universelle (qui est la fonction instanciée par la personne et la prise de notes matériaux indépendamment de tout contenu de programme particulier) et (2) le calcul de la machine de Turing qui est décrit par le programme (qui est instancié par tout, y compris le programme spécifique). La théorie du calcul explique ainsi formellement la possibilité ouverte que le deuxième calcul dans la salle chinoise puisse impliquer une compréhension sémantique équivalente à l'humain des entrées chinoises. L'accent est mis sur la machine de Turing du programme plutôt que sur celle de la personne. Cependant, du point de vue de Searle, cet argument est circulaire. La question en jeu est de savoir si la conscience est une forme de traitement de l'information, et cette réponse exige que nous fassions cette hypothèse.

Des versions plus sophistiquées de la réponse des systèmes essaient d'identifier plus précisément ce qu'est « le système » et elles diffèrent par la manière exacte dont elles le décrivent. Selon ces réponses, "l'esprit qui parle chinois" pourrait être des choses telles que : le "logiciel", un "programme", un "programme en cours", une simulation des "corrélats neuronaux de la conscience", le "système fonctionnel" , un "esprit simulé", une " propriété émergente " ou "un esprit virtuel " ( la version de Marvin Minsky de la réponse du système, décrite ci-dessous).

Réponse de l'esprit virtuel

Le terme « virtuel » est utilisé en informatique pour décrire un objet qui semble exister « dans » un ordinateur (ou un réseau informatique) uniquement parce qu'un logiciel le fait apparaître. Les objets "à l'intérieur" des ordinateurs (y compris les fichiers, dossiers, etc.) sont tous "virtuels", à l'exception des composants électroniques de l'ordinateur. De même, soutient Minsky , un ordinateur peut contenir un « esprit » virtuel au même titre que les machines virtuelles , les communautés virtuelles et la réalité virtuelle .
Pour clarifier la distinction entre la réponse des systèmes simples donnée ci-dessus et la réponse de l'esprit virtuel, David Cole note que deux simulations pourraient s'exécuter sur un système en même temps : l'une parlant chinois et l'autre parlant coréen. Bien qu'il n'y ait qu'un seul système, il peut y avoir plusieurs « esprits virtuels », ainsi le « système » ne peut pas être « l'esprit ».

Searle répond qu'un tel esprit est, au mieux, une simulation , et écrit : "Personne ne suppose que les simulations informatiques d'un incendie à cinq alarmes brûleront le quartier ou qu'une simulation informatique d'un orage nous laissera tous trempés." Nicholas Fearn répond que, pour certaines choses, la simulation est aussi bonne que la réalité. "Lorsque nous appelons la fonction calculatrice de poche sur un ordinateur de bureau, l'image d'une calculatrice de poche apparaît à l'écran. Nous ne nous plaignons pas que" ce n'est pas vraiment une calculatrice ", car les attributs physiques de l'appareil ne question." La question est : l'esprit humain, comme la calculatrice de poche, est-il essentiellement composé d'informations ? Ou l'esprit est-il comme l'orage, autre chose qu'un ordinateur, et non entièrement réalisable par une simulation informatique ? Pendant des décennies, cette question de simulation a conduit les chercheurs et les philosophes en IA à se demander si le terme « intelligence synthétique » est plus approprié que la description courante de ces intelligences comme « artificielle ».

Ces réponses expliquent exactement qui comprend le chinois. S'il y a autre chose que l'homme dans la pièce qui peut comprendre le chinois, Searle ne peut pas affirmer que (1) l'homme ne comprend pas le chinois, donc (2) rien dans la pièce ne comprend le chinois. Ceci, selon ceux qui font cette réponse, montre que l'argument de Searle ne parvient pas à prouver que "l'IA forte" est fausse.

Cependant, ces réponses, en elles-mêmes, ne fournissent aucune preuve que l'IA forte est vraie . Ils ne montrent pas que le système (ou l'esprit virtuel) comprend le chinois, à part la prémisse hypothétique qu'il réussit le test de Turing . Searle soutient que, si nous devons considérer l'IA forte comme plausible à distance, la salle chinoise est un exemple qui nécessite une explication, et il est difficile ou impossible d'expliquer comment la conscience pourrait « émerger » de la salle ou comment le système aurait une conscience. Comme Searle l'écrit, « la réponse du système soulève simplement la question en insistant sur le fait que le système doit comprendre le chinois » et esquive ainsi la question ou tourne désespérément.

Robot et réponses sémantiques : trouver le sens

En ce qui concerne la personne dans la pièce, les symboles ne sont que des "gribouillis" sans signification. Mais si la pièce chinoise « comprend » vraiment ce qu'elle dit, alors les symboles doivent tirer leur signification de quelque part. Ces arguments tentent de relier les symboles aux choses qu'ils symbolisent. Ces réponses répondent aux préoccupations de Searle concernant l' intentionnalité , l' ancrage des symboles et la syntaxe par rapport à la sémantique .

Réponse du robot

Supposons qu'au lieu d'une pièce, le programme soit placé dans un robot qui pourrait se promener et interagir avec son environnement. Cela permettrait un « lien de causalité » entre les symboles et les choses qu'ils représentent. Hans Moravec commente : « Si nous pouvions greffer un robot sur un programme de raisonnement, nous n'aurions plus besoin d'une personne pour en donner le sens : il viendrait du monde physique.
La réponse de Searle est de supposer que, à l'insu de l'individu dans la salle chinoise, certaines des entrées provenaient directement d'une caméra montée sur un robot, et certaines des sorties ont été utilisées pour manipuler les bras et les jambes du robot. Néanmoins, la personne dans la pièce ne fait que suivre les règles et ne sait pas ce que signifient les symboles. Searle écrit "il ne voit pas ce qui passe dans les yeux du robot". (Voir la chambre de Mary pour une expérience de pensée similaire.)

Signification dérivée

Certains répondent que la pièce, telle que la décrit Searle, est connectée au monde : à travers les locuteurs chinois avec lesquels elle « parle » et à travers les programmeurs qui ont conçu la base de connaissances dans son classeur. Les symboles que Searle manipule ont déjà un sens , ils n'en ont tout simplement pas pour lui .
Searle dit que les symboles n'ont qu'un sens "dérivé", comme le sens des mots dans les livres. La signification des symboles dépend de la compréhension consciente des locuteurs chinois et des programmeurs à l'extérieur de la pièce. La pièce, comme un livre, n'a pas de compréhension propre.

Connaissances de bon sens / réponse contextualiste

Certains ont fait valoir que la signification des symboles viendrait d'un vaste « arrière-plan » de connaissances de bon sens encodées dans le programme et les classeurs. Cela fournirait un « contexte » qui donnerait aux symboles leur sens.
Searle convient que ce contexte existe, mais il n'est pas d'accord qu'il puisse être intégré dans des programmes. Hubert Dreyfus a également critiqué l'idée que le « fond » puisse être représenté symboliquement.

À chacune de ces suggestions, la réponse de Searle est la même : peu importe combien de connaissances sont écrites dans le programme et peu importe comment le programme est connecté au monde, il est toujours dans la pièce à manipuler des symboles selon des règles. Ses actions sont syntaxiques et cela ne peut jamais lui expliquer ce que représentent les symboles. Searle écrit que « la syntaxe est insuffisante pour la sémantique ».

Cependant, pour ceux qui acceptent que les actions de Searle simulent un esprit, séparé du sien, la question importante n'est pas ce que signifient les symboles pour Searle , ce qui est important est ce qu'ils signifient pour l'esprit virtuel. Alors que Searle est piégé dans la pièce, l'esprit virtuel ne l'est pas : il est connecté au monde extérieur à travers les locuteurs chinois à qui il parle, à travers les programmeurs qui lui ont donné la connaissance du monde, et à travers les caméras et autres capteurs que les roboticiens peuvent fournir.

Simulation cérébrale et réponses connexionnistes : redessiner la pièce

Ces arguments sont toutes les versions de la réponse du système qui identifient un type particulier de système comme étant important ; ils identifient une technologie spéciale qui créerait une compréhension consciente dans une machine. (Les réponses « robot » et « connaissance de bon sens » ci-dessus spécifient également un certain type de système comme étant important.)

Réponse du simulateur cérébral

Supposons que le programme simule dans les moindres détails l'action de chaque neurone du cerveau d'un locuteur chinois. Cela renforce l'intuition qu'il n'y aurait pas de différence significative entre le fonctionnement du programme et le fonctionnement d'un cerveau humain vivant.
Searle répond qu'une telle simulation ne reproduit pas les caractéristiques importantes du cerveau, ses états causaux et intentionnels. Searle est catégorique sur le fait que « les phénomènes mentaux humains [sont] dépendants des propriétés physico-chimiques réelles du cerveau humain réel ». De plus, il argumente :

[I]magine qu'au lieu d'un homme monolingue dans une pièce mélangeant des symboles, nous avons l'homme qui fait fonctionner un ensemble élaboré de conduites d'eau avec des vannes les reliant. Lorsque l'homme reçoit les symboles chinois, il recherche dans le programme, écrit en anglais, quelles vannes il doit ouvrir et fermer. Chaque connexion d'eau correspond à une synapse dans le cerveau chinois, et tout le système est configuré pour qu'après avoir fait tous les bons tirs, c'est-à-dire après avoir ouvert tous les bons robinets, les réponses chinoises apparaissent à la fin de la série. de tuyaux. Maintenant, où est la compréhension dans ce système ? Il prend le chinois en entrée, il simule la structure formelle des synapses du cerveau chinois et il donne le chinois en sortie. Mais l'homme ne comprend certainement pas le chinois, et les conduites d'eau non plus, et si nous sommes tentés d'adopter ce que je pense être l'idée absurde que d'une certaine manière la conjonction de l'homme et des conduites d'eau comprend, rappelez-vous qu'en principe l'homme peut intérioriser la structure formelle des conduites d'eau et faire tous les "déclenchements de neurones" dans son imagination.

Deux variantes de la réponse du simulateur cérébral sont le cerveau chinois et le scénario de remplacement du cerveau.
cerveau chinois
Et si on demandait à chaque citoyen chinois de simuler un neurone, en utilisant le système téléphonique pour simuler les connexions entre les axones et les dendrites ? Dans cette version, il semble évident qu'aucun individu n'aurait la moindre compréhension de ce que le cerveau pourrait dire. Il est également évident que ce système serait fonctionnellement équivalent à un cerveau, donc si la conscience est une fonction, ce système serait conscient.
Scénario de remplacement du cerveau
En cela, on nous demande d'imaginer que les ingénieurs ont inventé un petit ordinateur qui simule l'action d'un neurone individuel. Que se passerait-il si on remplaçait un neurone à la fois ? En remplacer un ne ferait clairement rien pour changer la conscience. Les remplacer tous créerait un ordinateur numérique qui simule un cerveau. Si Searle a raison, alors la conscience doit disparaître pendant la procédure (soit progressivement, soit d'un seul coup). Les critiques de Searle soutiennent qu'il n'y aurait aucun intérêt au cours de la procédure lorsqu'il pourrait prétendre que la conscience se termine et que la simulation insensée commence. Searle prédit qu'en passant par la prothèse cérébrale, « vous découvrez, à votre plus grand étonnement, que vous perdez effectivement le contrôle de votre comportement extérieur. Vous découvrez, par exemple, que lorsque les médecins testent votre vision, vous les entendez dire : tiennent un objet rouge devant vous ; s'il vous plaît, dites-nous ce que vous voyez. » Vous voulez crier "Je ne vois rien. Je deviens totalement aveugle." Mais vous entendez votre voix dire d'une manière totalement indépendante de votre volonté : « Je vois un objet rouge devant moi. [...] [Votre] expérience consciente se réduit lentement à néant, tandis que votre comportement observable de l'extérieur reste le même." (Voir Navire de Thésée pour une expérience de pensée similaire.)

Réponses connexionnistes

Étroitement lié à la réponse du simulateur cérébral, cela prétend qu'une architecture connexionniste massivement parallèle serait capable de comprendre.

Réponse combinée

Cette réponse combine la réponse du robot avec la réponse de la simulation cérébrale, faisant valoir qu'une simulation cérébrale connectée au monde via un corps de robot pourrait avoir un esprit.

Beaucoup de manoirs / attendez la réponse de l'année prochaine

Une meilleure technologie à l'avenir permettra aux ordinateurs de comprendre. Searle convient que cela est possible, mais considère ce point non pertinent. Searle convient qu'il peut y avoir des conceptions qui amèneraient une machine à avoir une compréhension consciente.

Ces arguments (et les réponses du robot ou des connaissances de bon sens) identifient une technologie spéciale qui aiderait à créer une compréhension consciente dans une machine. Ils peuvent être interprétés de deux manières : soit ils prétendent (1) que cette technologie est nécessaire à la conscience, la salle chinoise n'implémente pas ou ne peut pas mettre en œuvre cette technologie, et donc la salle chinoise ne peut pas passer le test de Turing ou (même si elle l'a fait) n'aurait pas de compréhension consciente. Ou ils peuvent prétendre que (2) il est plus facile de voir que la salle chinoise a un esprit si nous visualisons cette technologie comme étant utilisée pour la créer.

Dans le premier cas, où des fonctionnalités telles qu'un corps de robot ou une architecture connexionniste sont nécessaires, Searle affirme qu'une IA forte (telle qu'il la comprend) a été abandonnée. La salle chinoise possède tous les éléments d'une machine complète de Turing, et est ainsi capable de simuler n'importe quel calcul numérique. Si la chambre de Searle ne réussit pas le test de Turing, aucune autre technologie numérique ne pourrait réussir le test de Turing. Si la pièce de Searle pourrait passer le test de Turing, mais n'a toujours pas d'esprit, alors le test de Turing n'est pas suffisant pour déterminer si la pièce a un « esprit ». Quoi qu'il en soit, il nie l'une ou l'autre des positions que Searle considère comme "une IA forte", prouvant son argument.

Les arguments du cerveau en particulier nient une IA forte s'ils supposent qu'il n'y a pas de moyen plus simple de décrire l'esprit que de créer un programme qui est tout aussi mystérieux que l'était le cerveau. Il écrit : "Je pensais que l'idée même d'une IA forte était que nous n'avons pas besoin de savoir comment fonctionne le cerveau pour savoir comment fonctionne l'esprit." Si le calcul ne fournit pas d' explication de l'esprit humain, alors une IA puissante a échoué, selon Searle.

D'autres critiques soutiennent que la pièce telle que Searle l'a décrite a, en fait, un esprit, mais ils soutiennent qu'il est difficile à voir - la description de Searle est correcte, mais trompeuse. En redessinant la pièce de manière plus réaliste, ils espèrent rendre cela plus évident. Dans ce cas, ces arguments sont utilisés comme des appels à l'intuition (voir la section suivante).

En fait, la pièce peut tout aussi bien être repensée pour affaiblir nos intuitions. L' argument Blockhead de Ned Block suggère que le programme pourrait, en théorie, être réécrit dans une simple table de recherche de règles de la forme "si l'utilisateur écrit S , répondez par P et passez à X". Au moins en principe, n'importe quel programme peut être réécrit (ou " refactorisé ") sous cette forme, même une simulation cérébrale. Dans le scénario idiot, l'état mental entier est caché dans la lettre X, qui représente une adresse mémoire — un nombre associé à la règle suivante. Il est difficile de visualiser qu'un instant de son expérience consciente puisse être capturé en un seul grand nombre, pourtant c'est exactement ce que prétend « l'IA forte ». En revanche, une telle table de correspondance serait ridiculement grande (au point d'être physiquement impossible), et les états pourraient donc être extrêmement spécifiques.

Searle soutient que quelle que soit la manière dont le programme est écrit ou quelle que soit la manière dont la machine est connectée au monde, l'esprit est simulé par une simple machine numérique étape par étape (ou des machines). Ces machines sont toujours comme l'homme dans la pièce : elles ne comprennent rien et ne parlent pas chinois. Ils ne font que manipuler des symboles sans savoir ce qu'ils signifient. Searle écrit : « Je peux avoir n'importe quel programme formel que vous aimez, mais je ne comprends toujours rien.

Vitesse et complexité : fait appel à l'intuition

Les arguments suivants (et les interprétations intuitives des arguments ci-dessus) n'expliquent pas directement comment un esprit parlant chinois pourrait exister dans la chambre de Searle, ou comment les symboles qu'il manipule pourraient devenir significatifs. Cependant, en soulevant des doutes sur les intuitions de Searle, ils soutiennent d'autres positions, telles que les réponses du système et du robot. Ces arguments, s'ils sont acceptés, empêchent Searle de prétendre que sa conclusion est évidente en minant les intuitions que requiert sa certitude.

Plusieurs critiques pensent que l'argument de Searle repose entièrement sur des intuitions. Ned Block écrit : « L'argument de Searle dépend pour sa force d'intuitions que certaines entités ne pensent pas. Daniel Dennett décrit l'argument de la chambre chinoise comme une « pompe à intuition » trompeuse et écrit « L'expérience de pensée de Searle dépend, illicitement, de votre imagination d'un cas trop simple, un cas non pertinent, et d'en tirer la conclusion « évidente ».

Certains des arguments ci-dessus fonctionnent également comme des appels à l'intuition, en particulier ceux qui visent à rendre plus plausible le fait que la salle chinoise contienne un esprit, qui peut inclure le robot, les connaissances de bon sens, la simulation cérébrale et les réponses connexionnistes. Plusieurs des réponses ci-dessus abordent également la question spécifique de la complexité. La réponse connexionniste souligne qu'un système d'intelligence artificielle fonctionnel devrait être aussi complexe et aussi interconnecté que le cerveau humain. La réponse de bon sens souligne que tout programme ayant réussi un test de Turing devrait être "un système extraordinairement souple, sophistiqué et multicouche, débordant de "connaissances du monde" et de méta-connaissances et méta-méta-connaissances", comme l' explique Daniel Dennett. .

Rapidité et complexité des réponses

La vitesse à laquelle le cerveau humain traite l'information est (selon certaines estimations) de 100 milliards d'opérations par seconde. Plusieurs critiques soulignent que l'homme dans la pièce mettrait probablement des millions d'années à répondre à une simple question, et aurait besoin de « classeurs » de proportions astronomiques. Cela met en doute la clarté de l'intuition de Searle.

Une version particulièrement vivante de la réponse de vitesse et de complexité est de Paul et Patricia Churchland . Ils proposent cette expérience de pensée analogue :

La chambre lumineuse de Churchland

« Considérez une pièce sombre contenant un homme tenant une barre magnétique ou un objet chargé. Si l'homme pompe l'aimant de haut en bas, alors, selon la théorie de la luminance artificielle (AL) de Maxwell , il déclenchera un cercle de propagation d' ondes électromagnétiques. et sera donc lumineux. Mais comme nous tous qui avons joué avec des aimants ou des boules chargées le savons bien, leurs forces (ou toute autre force d'ailleurs), même lorsqu'elles sont mises en mouvement, ne produisent aucune luminance. Il est inconcevable que vous pourrait constituer une véritable luminance simplement en déplaçant des forces !" Le problème est qu'il devrait agiter l'aimant de haut en bas environ 450 billions de fois par seconde pour voir quoi que ce soit.

Stevan Harnad critique les réponses rapides et complexes lorsqu'elles dépassent le simple fait de répondre à nos intuitions. Il écrit : "Certains ont fait un culte de la vitesse et du timing, soutenant que, lorsqu'il est accéléré à la bonne vitesse, le calcul peut faire une transition de phase dans le mental. Il devrait être clair que ce n'est pas un contre-argument mais simplement une spéculation ad hoc ( tout comme le point de vue selon lequel il s'agit simplement d'atteindre le bon degré de « complexité ».) »

Searle soutient que ses critiques s'appuient également sur des intuitions, mais les intuitions de ses adversaires n'ont aucune base empirique. Il écrit que, pour considérer la "réponse du système" comme à distance plausible, une personne doit être "sous l'emprise d'une idéologie". La réponse du système n'a de sens (pour Searle) que si l'on suppose que n'importe quel « système » peut avoir une conscience, simplement parce qu'il est un système avec le bon comportement et les bonnes parties fonctionnelles. Cette hypothèse, soutient-il, n'est pas tenable compte tenu de notre expérience de la conscience.

Autres esprits et zombies : non-sens

Plusieurs réponses soutiennent que l'argument de Searle n'est pas pertinent parce que ses hypothèses sur l'esprit et la conscience sont erronées. Searle croit que les êtres humains expérimentent directement leur conscience, leur intentionnalité et la nature de l'esprit chaque jour, et que cette expérience de la conscience n'est pas remise en question. Il écrit que nous devons « présupposer la réalité et la connaissabilité du mental ». Ces réponses se demandent si Searle est justifié d'utiliser sa propre expérience de la conscience pour déterminer qu'il s'agit de plus que du traitement mécanique de symboles. En particulier, la réponse des autres esprits soutient que nous ne pouvons pas utiliser notre expérience de la conscience pour répondre à des questions sur d'autres esprits (même l'esprit d'un ordinateur), et la réponse épiphénomène soutient que la conscience de Searle n'existe pas dans le sens où Searle pense Cela fait.

D'autres esprits répondent
Cette réponse souligne que l'argument de Searle est une version du problème des autres esprits , appliqué aux machines. Il n'y a aucun moyen de déterminer si l'expérience subjective des autres est la même que la nôtre. Nous ne pouvons qu'étudier leur comportement (c'est-à-dire en leur donnant notre propre test de Turing ). Les critiques de Searle soutiennent qu'il maintient la salle chinoise à un niveau plus élevé que nous ne le ferions pour une personne ordinaire.

Nils Nilsson écrit : « Si un programme se comporte comme s'il se multipliait, la plupart d'entre nous diraient qu'il se multiplie, en fait. Pour autant que je sache, Searle se comporte peut-être comme s'il réfléchissait profondément à ces questions. Mais, même si je ne suis pas d'accord avec lui, sa simulation est plutôt bonne, donc je suis prêt à lui attribuer une réelle réflexion."

Alan Turing a anticipé l'argumentation de Searle (qu'il a appelée « L'argument de la conscience ») en 1950 et fait répondre les autres esprits. Il a noté que les gens ne considèrent jamais le problème des autres esprits lorsqu'ils traitent les uns avec les autres. Il écrit qu'"au lieu de se disputer continuellement sur ce point, il est habituel d'avoir la convention polie que tout le monde pense". Le test de Turing étend simplement cette « convention de politesse » aux machines. Il n'a pas l'intention de résoudre le problème des autres esprits (pour les machines ou les personnes) et il ne pense pas que nous ayons besoin de le faire.

Réponse du matérialisme éliminatoire
Plusieurs philosophes soutiennent que la conscience, telle que la décrit Searle, n'existe pas. Cette position est parfois qualifiée de matérialisme éliminatoire : l'idée que la conscience est une propriété qui peut être réduite à une description strictement mécanique, et que notre expérience de la conscience est, comme la décrit Daniel Dennett, une « illusion d'utilisateur ». D'autres propriétés mentales, telles que l' intentionnalité originelle (également appelée « signification », « contenu » et « caractère sémantique »), sont également généralement considérées comme quelque chose de spécial concernant les croyances et les autres attitudes propositionnelles. Le matérialisme éliminatoire soutient que les attitudes propositionnelles telles que les croyances et les désirs, parmi d'autres états mentaux intentionnels qui ont un contenu, n'existent pas. Si le matérialisme éliminatoire est le compte rendu scientifique correct de la cognition humaine, alors l'hypothèse de l'argument chinois selon lequel « les esprits ont un contenu mental ( sémantique ) » doit être rejetée.

Stuart Russell et Peter Norvig soutiennent que, si nous acceptons la description de Searle de l'intentionnalité, de la conscience et de l'esprit, nous sommes forcés d'accepter que la conscience est épiphénoménale : qu'elle "ne projette aucune ombre", qu'elle est indétectable dans le monde extérieur. Ils soutiennent que Searle doit se tromper sur la "connaissance du mental", et dans sa conviction qu'il existe des "propriétés causales" dans nos neurones qui donnent naissance à l'esprit. Ils soulignent que, selon la propre description de Searle, ces propriétés causales ne peuvent être détectées par personne en dehors de l'esprit, sinon la salle chinoise ne pourrait pas passer le test de Turing - les personnes à l'extérieur seraient en mesure de dire qu'il n'y avait pas de Chinois locuteur dans la pièce en détectant leurs propriétés causales. Puisqu'ils ne peuvent pas détecter les propriétés causales, ils ne peuvent pas détecter l'existence du mental. En bref, les "propriétés causales" de Searle et la conscience elle-même sont indétectables, et tout ce qui ne peut être détecté n'existe pas ou n'a pas d'importance.

Daniel Dennett fournit cette extension à l'argument des « épiphénomènes ».

La réponse de Dennett à partir de la sélection naturelle
Supposons que, par une mutation, naît un être humain qui n'a pas les « propriétés causales » de Searle mais qui agit néanmoins exactement comme un être humain. (Ce genre d'animal est appelé « zombie » dans les expériences de pensée en philosophie de l'esprit ). Ce nouvel animal se reproduirait comme n'importe quel autre humain et finalement il y aurait plus de ces zombies. La sélection naturelle favoriserait les zombies, car leur conception est (on pourrait le supposer) un peu plus simple. Finalement, les humains mourraient. Par conséquent, si Searle a raison, il est fort probable que les êtres humains (tels que nous les voyons aujourd'hui) soient en réalité des "zombies", qui insistent néanmoins sur le fait qu'ils sont conscients. Il est impossible de savoir si nous sommes tous des zombies ou non. Même si nous sommes tous des zombies, nous croirions toujours que nous ne le sommes pas.

Searle n'est pas d'accord avec cette analyse et soutient que "l'étude de l'esprit commence par des faits tels que les humains ont des croyances, tandis que les thermostats, les téléphones et les machines à additionner n'en ont pas ... ce que nous voulions savoir, c'est ce qui distingue l'esprit des thermostats et les foies." Il considère comme évident que nous pouvons détecter la présence de la conscience et rejette ces réponses comme étant hors de propos.

Réponse de l' épée laser flamboyante de Newton
Mike Alder soutient que l'argument entier est frivole, car il n'est pas vérificationniste : non seulement la distinction entre simuler un esprit et avoir un esprit est mal définie, mais elle est également hors de propos car aucune expérience n'a été, ou ne peut même être, proposée. faire la distinction entre les deux.

réponse en anglais

Margaret Boden a fourni cette réponse dans son article "Escaping from the Chinese Room". Elle y suggère que même si la personne dans la pièce ne comprend pas le chinois, cela ne signifie pas qu'il n'y a pas de compréhension dans la pièce. La personne dans la salle comprend au moins le livre de règles utilisé pour fournir des réponses de sortie.

Dans la culture populaire

L'argument de la chambre chinoise est un concept central dans les romans de Peter Watts Blindsight et (dans une moindre mesure) Echopraxia . C'est également un thème central dans le jeu vidéo Virtue's Last Reward , et se rattache au récit du jeu. Dans la saison 4 du drame policier américain Numb3rs, il y a une brève référence à la salle chinoise.

The Chinese Room est aussi le nom d'un studio britannique indépendant de développement de jeux vidéo surtout connu pour avoir travaillé sur des jeux expérimentaux à la première personne, comme Everybody's Gone to the Rapture , ou Dear Esther .

Dans le jeu vidéo The Turing Test de 2016 , l'expérience de pensée Chinese Room est expliquée au joueur par une IA.

Voir également

Remarques

Citations

Les références

Les numéros de page ci-dessus font référence à une impression PDF standard de l'article.
Les numéros de page ci-dessus font référence à une impression PDF standard de l'article.
Les numéros de page ci-dessus font référence à une impression PDF standard de l'article.
Les numéros de page ci-dessus font référence à une impression PDF standard de l'article.
Les numéros de page ci-dessus renvoient à une impression PDF standard de l'article. Voir aussi le brouillon original de Searle .
Les numéros de page ci-dessus font référence à une impression PDF standard de l'article.
Les numéros de page ci-dessus et le contenu du diagramme renvoient à l' impression Lyceum PDF de l'article.

Lectures complémentaires