Skip to content

Het startpunt voor mijn theorie over intelligentie

29 mei 2014

Hoe werkt menselijke intelligentie? Kunnen we dat nabouwen? Kan een computer denken en begrijpen? In de jaren ’80 studeerde ik psychologie in Nijmegen. Ik volgde ook colleges over artificiële intelligentie , afgekort AI, die in die tijd erg in de belangstelling stond. We hadden filosofische discussies over de vraag of het mogelijk was om een computer te laten denken als een mens.

In de jaren ’60 maakte Weizenbaum  het programma ELIZA. ELIZA was een eenvoudig programma dat een psychiater nabootste door ingetypte vragen te beantwoorden. ELIZA reageerde op afzonderlijke woorden die in de zin voorkwamen en had geen begrip van de hele zin of de context. Als ELIZA geen aanknopingspunt had voor een antwoord, reageerde het met een tegenvraag. Zo kreeg de gebruiker de indruk een vrij normale conversatie te voeren, als met een mens.

Vanaf de jaren ’80 werden er expertsystemen  gebouwd. Je stelt een vraag, het programma stelt tegenvragen om de relevante informatie boven tafel te krijgen, en komt uiteindelijk met een antwoord. In het college functieleer hadden we een demo van een arts-programma dat op basis van vragen en antwoorden een diagnose stelde en een medicijn voorschreef. Zo’n expersysteem is specifiek voor een domein, bijvoorbeeld geneeskunde. Als je een vraag stelt die buiten het domein valt, “Dokter, ik heb belangstelling voor psychologische functieleer” of “Dokter, ik heb een lekke band”, dan komt er nooit een zinnige conversatie tot stand. Op z’n hoogst schrijft het programma zoiets terug als “Ik begrijp uw vraag niet”.

“Een computer denkt niet”, was een veelgehoorde opmerking in die tijd. Hij volgt slechts geprogrammeerde instructies. Het is duidelijk dat programma’s als ELIZA en expertsystemen geen begrip hebben van de woorden die ze gebruiken. Maar als je het programma zou uitbreiden tot het zoveel omvat dat het qua inhoud vergelijkbaar wordt met menselijke hersenen, gaat de computer dan wel denken en begrijpen zoals wij? En als dat niet zo is, waarom dan niet?

Alain Turing  bedacht de Turing-test. Een mens voert een conversatie via een beeldscherm en toetsenbord, en moet beoordelen of hij met een ander mens converseert of met een machine. De machine is geslaagd voor de test als de menselijke beoordelaar niet in staat is de machine te ontmaskeren. Is er een machine te bouwen die deze test doorstaat? Ja, volgens Turing. Volgens John Searle betekent het slagen voor de Turing-test nog steeds niet, dat de computer denkt en begrijpt als een mens. (Zie ook mijn werkstuk uit 1986.) Hoe dan ook, of de Turing-test nu wel of niet voldoende is om te stellen dat een computer denkt en begrijpt als een mens, de vraag blijft wat het fundamentele kenmerk is van menselijke intelligentie. Of van intelligentie van dieren. Dat is waar ik naar op zoek ben.

Met de ontwikkeling van AI-systemen werd duidelijk dat het niet ging lukken om systemen te bouwen die reageren als mensen. Het grootste probleem leek te zijn, dat computerprogramma’s alleen adequaat reageren op situaties die door de programmeur voorzien zijn. Zodra er zich iets nieuws voordoet, blijkt het programma daar niets mee te kunnen. Zo was er een programmaatje dat instructies kon uitvoeren als “Plaats de rode kubus op de blauwe cilinder.” Het programma kreeg beelden door van een camera en kon die interpreteren. Het programma wist dus niet van tevoren hoe de opstelling van objecten was. Het stuurde vervolgens een hijskraantje aan dat de opdracht correct uitvoerde. Als de experimentator een pot inkt omstootte die de opstelling bekladde, dan kon het programma niets meer. Een mens zou zo’n situatie vrij eenvoudig vinden, maar voor een computerprogramma is zoiets onoverkomelijk. Uiteraard kun je deze nieuwe situatie ook inprogrammeren, maar dan is er weer iets anders te bedenken waarop het programma niet voorbereid is. Hoe bouw je een systeem dat met nieuwe situtaties om kan gaan? Dus met situaties die niet eerst door de programmeur bedacht zijn.

Een programma volgt vaste regels en reageert dus voorspelbaar. Daar zou je vanaf moeten, zei ik in discussies. Het weerwoord was: dan bouw je een randomgenerator in. Daarmee is de machine niet langer voorspelbaar, maar het is duidelijk dat het nog steeds niet adequaat kan reageren op nieuwe situaties. Naar mijn idee moet je helemaal van die paden af, want paden zijn star. Misschien zou het systeem zelf nieuwe paden of beslisbomen moeten aanmaken. Het probleem is daarbij dat het aanmaken van nieuwe paden of beslisbomen wordt gedaan op basis van de bestaande paden en die zijn te star. Het systeem zal op deze manier nooit flexibel worden, zoals mensen dat zijn. Als je het visualiseert is het net alsof je met vierkantje blokjes een bol probeert te bouwen. Dat lukt nooit. (Of andere ronde vormen, een leuk voorbeeld is The Art of the Brick van Nathan Sawaya.) Je kunt door kleinere blokjes te nemen een bolvorm benaderen, maar het wordt nooit echt rond en zo lijkt het ook te zijn met AI-programma’s: je kunt menselijke intelligentie benaderen, maar er zijn altijd situaties te bedenken waarin het programma faalt. Inmiddels zijn we jaren verder en rijden er zelfrijdende auto’s rond. De computerprogramma’s zijn verfijnd, maar ze werken nog steeds wezenlijk anders dan de menselijke hersenen. De Google-auto heeft een gedetailleerde wegenkaart in zijn systeem en een GPS-positiebepaling. Deze gegevens combineert hij met wat de camera’s registreren. Hoe anders beoefent een mens de kunst van het autorijden! Een mens heeft er geen enkele moeite mee om te rijden op een onbekende weg, zonder kaart, zonder te weten waar hij is, gewoon rijden.

Hoe bouw je menselijke intelligentie na? Hoe kom je van die vaste AI-paden af? In de jaren ’90 richtten onderzoekers zich op het ontwikkelen van systemen die iets konden wat er niet van tevoren was ingestopt. Voorbeelden hiervan zijn neurale netwerken en agent theory. Een ander voorbeeld is het bouwen van een insektachtig robotje, waarvan ieder pootje heel simpele instructies volgt en alle pootjes samen nieuw gedrag vertonen. Mijn idee is altijd geweest dat de logica op de een of andere manier de beperking vormt. Mensen denken niet logisch. De AI-onderzoeker zal waarschijnlijk zeggen dat je moeilijk iets kunt bouwen dat niet logisch is, hoe ingewikkeld onze hersenprocessen ook mogen zijn, uiteindelijk berusten die ook op logische regels. Om de natuurwetten kan niemand heen. Als je geen bovennatuurlijke zaken veronderstelt, dan zijn onze denkprocessen in principe te reduceren tot natuurwetten en zijn onze hersenen in principe na te bouwen, inclusief denken en begrijpen. Toch bleef ik me afvragen of je een systeem zou kunnen bouwen, dat niet logisch is en toch interessant gedrag vertoont. Wat is logica eigenlijk? En als mensen niet logisch denken, hoe denken ze dan wel? Niet logisch denken, kan dat eigenlijk wel? Deze vragen waren mijn startpunt voor mijn eigen theorie over menselijke intelligentie.

 

Terug naar Overzicht Argumententheorie

Advertenties

From → Wetenschap

Geef een reactie

Geef een reactie

Vul je gegevens in of klik op een icoon om in te loggen.

WordPress.com logo

Je reageert onder je WordPress.com account. Log uit / Bijwerken )

Twitter-afbeelding

Je reageert onder je Twitter account. Log uit / Bijwerken )

Facebook foto

Je reageert onder je Facebook account. Log uit / Bijwerken )

Google+ photo

Je reageert onder je Google+ account. Log uit / Bijwerken )

Verbinden met %s

%d bloggers liken dit: