Skip to content

De Chinese Kamer

4 april 2015

Binnen mijn studie psychologie heb ik eens een werkstuk gemaakt over de Chinese-kamerproef. Dit is een gedachte-experiment dat verwijst naar het werk van Turing.
Alan Turing (1912-1954) is de grondlegger van de computer en de kunstmatige intelligentie. Hij bedacht de Turing-test: Kun je beoordelen of je met een computer of met een mens zit te corresponderen. Zo niet, dan is de computer met zijn programma van kunstmatige intelligentie geslaagd. De Chinese-kamerproef is een antwoord hierop. Hieruit zou blijken dat een computer die niet van een mens is te onderscheiden, nog steeds niet begrijpt waar hij het over heeft. De wikipedia (klik de twee links hierboven) legt dit allemaal uitstekend uit.
Mijn werkstuk hieronder is mijn visie op deze kwestie. Met dank aan Gé Calis, die me net zo lang bleef stimuleren, tot het idee dat ik in mijn hoofd had, volledig op papier stond.

 

 

DE CHINESE KAMER
commentaar op
Minds, Brains, and Programs
van John R. Searle

 

De uitgangspunten van Searle (1980) bij de Chinese kamerproef zijn:
a. dat de persoon in de kamer een formeel programma van instructies volgt en
b. dat de Chinese kamer zodanig is geprogrammeerd dat deze de Turingtest kan doorstaan.
Searle’s conclusie is dat het onmogelijk is dat iets zou kunnen denken, begrijpen, enzovoort enkel en alleen door een computer te zijn met het juiste soort programma; oftewel dat het onmogelijk is dat het in werking stellen van een programma (uiteraard het juiste programma) op zichzelf een voldoende voorwaarde zou zijn voor begrijpen.
Zijn hoofdargumenten zijn:
a. dat een dergelijk formeel model op zichzelf nooit voldoende zal zijn voor intentionaliteit, omdat de formele eigenschappen zelf geen intentionaliteit bezitten, en
b. dat de formele eigenschappen zelf geen ‘causal powers’ hebben. (En de causale eigenschappen, nodig voor de realisatie van het model, zijn altijd irrelevant voor het formele model zelf.)

Wat betekent het dat een systeem (i.c. een programma) de Turingtest kan doorstaan? Ik onderscheid hier twee mogelijkheden.
De eerste mogelijkheid: Het programma werkt niet als een menselijk brein, maar het heeft een andere werkzwijze die niet het menselijk denken, begrijpen enzovoort verklaart. Het zou bijvoorbeeld kunnen, dat het programma een aantal standaardantwoorden in voorraad heeft, zoals ‘Eliza’ van Weizenbaum. Dit programma is dan zo uitgebreid en ingewikkeld gemaakt dat het de Turingtest doorstaat. Aangezien het niet hetzelfde werkt als een menselijk brein, is het niet duidelijk of je hier van begrip kunt spreken. Ik laat hier in het midden of (1) de Turingtest sowieso ondeugdelijk is, of dat (2) de Turingtest op zichzelf goed is, maar de mens die hem moet afnemen een te zwak discriminerend vermogen bezit.
De tweede mogelijkheid: Het programma werkt net als een menselijk brein. Dat wil zeggen dat ieder hersenproces in het menselijk brein wordt gerepresenteerd in het formele programma. Dit systeem (programma) verwerkt de informatie op dezelfde manier als een menselijk brein en is qua output daarvan niet te onderscheiden. Het enige verschil met het menselijk brein is dus, dat het geen stel hersenen is, maar een computer, werkend volgens formele instructies.
Uit Searle’s betoog (o.a. over waterpijpen die moeten corresponderen met synapsen in het Chinese brein) blijkt dat hij uitgaat van de tweede mogelijkheid. Bovendien is de eerste mogelijkheid niet erg interessant, omdat die niet meer zou kunnen aantonen dan dat de Turingtest niet deugt.

Wat zijn nu de ‘causal powers’ waar Searle het over heeft en waarom is een programma nooit voldoende voor denken en begrijpen? Uiteraard heb je een machine of systeem nodig om het formele programma op te draaien. In die zin zijn formele eigenschappen niet genoeg, maar dat is triviaal. Dit bedoelt hij dus niet met ‘causal powers’.
Wat Searle hier suggereert is dat de hersenen bepaalde eigenschappen hebben, die computers missen, althans de huidige computers. Maar dat de huidige computers niet kunnen denken en begrijpen zal ook niemand betwisten. Trapt Searle hier een open deur in? Waarschijnlijk bedoelt hij dat de huidige computers een of meer essentiële eigenschappen missen. Volgens Searle is het mogelijk dat een computer zou kunnen denken, maar niet enkel en alleen door een computer te zijn met het juiste soort programma.
De ‘causal powers’ zijn echter, zoals gezegd, irrelevant voor het formele model. Mijn uitgangspunt is hier om vanuit een formeel model de kwestie van het begrijpen te belichten.
Hoe kunnen symbolen nu refereren? (Intentionaliteit) Door iets dat een relatie legt tussen die symbolen en de werkelijkheid. Bij een mens doen dat de zintuigen. De zintuigen vervullen een transducerfunctie tussen de symbolen en de fysische objecten waarnaar ze verwijzen. Hiervan weten we nog niet hoe ze precies werken, maar wellicht zijn deze in de toekomst na te bouwen. Men kan zich voorstellen dat een computer uitgerust wordt met een camera als oog en een causaal systeem daarachter, dat de indrukken uit de buitenwereld uitdrukt in formele symbolen. (Bij de huidige computers wordt deze transducerfunctie altijd vervuld door de programmeur of operator, die alleen formele symbolen in het systeem invoert.)
Hoe zit het nu met het begrijpen voor de man in de Chinese kamer, die alleen formele symbolen onder ogen krijgt? Het is mijn bedoeling uiteen te zetten, dat naar mijn idee de man in de Chinese kamer de berichtenwisseling in feite wel begrijpt en dat op dat punt de redenering van Searle dus niet klopt.

We weten niet precies wat we onder begrijpen moeten verstaan, maar het is wel duidelijk, dat een noodzakelijke voorwaarde voor begrijpen het combineren van de input met enige informatie in het geheugen is. (Bijvoorbeeld zoals het programma van Schank conclusies kon trekken over specifieke situaties.) Essentiëel is het kunnen trekken van een conclusie, die niet expliciet gegeven is. Waarom begrijpt de man in de Chinese kamer wel Chinees?
Het systeem maakt inferenties tussen de te verwerken informatie en zijn geheugen, zoals een mens om iets te begrijpen inferenties maakt met zijn opgeslagen ervaringen. Het systeem, dat gebaseerd is op een formeel model, maakt inferenties tussen verschillende formele symbolen. Deze symbolen zijn voor wat betreft hun betekenis onbekend aan de man in de kamer, zodat hij niet weet waarnaar deze symbolen verwijzen in de buitenwereld. Hij weet echter wel welke relaties er binnen het systeem bestaan tussen de verschillende symbolen, met andere woorden hij weet waarnaar deze symbolen intern verwijzen. Hij kent bij iedere input evenveel referenties naar formele symbolen als een Chinees referenties kent naar opgeslagen ervaringen. Met andere woorden: De man in de Chinese kamer begrijpt Chinees binnen een bepaald kader. Het is niet zo, dat hij in zijn eigen taal kan weergeven, waarnaar deze symbolen voor de Chinees verwijzen in de buitenwereld. Hij kan immers geen verband leggen tussen zijn ervaringen met bijvoorbeeld restaurants en de symbolen in het systeem. Het systeem en zijn brein staan als het ware los van elkaar. Hij begrijpt het dus binnen een nieuw kader. Dit kader is niet rijker of armer dan dat van een menselijk brein, het is precies even groot. Dit kader is een formele representatie van het kader van een menselijk brein.

Met de Chinese kamerproef kan men niet vaststellen of hersenen al dan niet ‘causal powers’ hebben, die formele systemen niet hebben. Wel kan men stellen dat formele eigenschappen, ook al sprak ik hier van begrijpen, geen intentionaliteit bezitten, maar dat daarbij een transducerfunctie onmisbaar is.
Mijn eindconclusie is, dat men op grond van Chinese kamerproef niet kan concluderen, dat het in werking stellen van het juiste programma, werkend volgens formele instructies, geen voldoende voorwaarde zou zijn voor denken en begrijpen.

Nijmegen, april 1986.

 

LITERATUUR

Searle, J.R. (1980). Minds, brains, and programs. The Behavioral and Brain Sciences3, 417-457.

Advertenties

From → Wetenschap

Geef een reactie

Vul je gegevens in of klik op een icoon om in te loggen.

WordPress.com logo

Je reageert onder je WordPress.com account. Log uit / Bijwerken )

Twitter-afbeelding

Je reageert onder je Twitter account. Log uit / Bijwerken )

Facebook foto

Je reageert onder je Facebook account. Log uit / Bijwerken )

Google+ photo

Je reageert onder je Google+ account. Log uit / Bijwerken )

Verbinden met %s

%d bloggers liken dit: