donderdag 9 november 2017

De vooruitziende blik van Asimov


Isaac Asimov, Amerikaans biochemicus en science fiction schrijver, definieerde al in 1942 in zij boek I, Robot drie wetten van de robotica teneinde te voorkomen dat robots zich op enig moment tegen de mens zouden keren. In de Wetenschapsbijlage van de NRC van afgelopen weekend een uitgebreid artikel over de ethiek van de robotica. De wetten van Asimov luiden aldus:

1. Een robot mag een mens geen letsel toebrengen of door niet te handelen toestaan dat een mens letsel oploopt;
2. Een robot moet de bevelen uitvoeren die hem door mensen worden gegeven, behalve als die opdrachten in strijd zijn met de Eerste Wet;
3. Een robot moet zijn eigen bestaan beschermen, voor zover die bescherming niet in strijd is met de Eerste of Tweede Wet.

Later kwam daar nog een nulde wet bij:
0. Een robot mag geen schade toebrengen aan de mensheid, of toelaten dat de mensheid schade wordt toegebracht door zijn nalatigheid.

De bedoeling is dat bij het programmeren van robots en robotica deze ethische uitgangspunten worden meegegeven zodat robots zich inderdaad niet tegen de mens kunnen keren. Iemand die zich nadrukkelijk met dit aspect van de robotica bezighoudt is de Brit Alan Winfield (klik voor meer informatie op deze link: alanwinfield.blogspot)


In tegenstelling tot Hawking, Musk en anderen is Winfield helemaal niet bang voor robots die de mens zullen gaan overheersen of erger. In het lab is het mogelijk om robots te bouwen die uit de voeten kunnen met morele dilemma's. En in navolging van Asimov wordt daarbij de volgende set of rules gehanteerd:


IF for all robot actions, the human is equally safe
THEN (*default safe actions*) output safe actions
ELSE (*ethical action*) output action(s) for least unsafe human outcome(s)

Buitengewoon interessant om te lezen over de laboratoriumproeven waaruit blijkt dat de ethische robots inderdaad weg weten met morele dilemma's. In een van die proeven werd een robot geconfronteerd met een noodsituatie waarin twee 'humans' in een noodsituatie belanden en waarbij de robot slechts tijd genoeg heeft om een van beiden te redden. In ongeveer de helft van de gevallen slaagde de robot erin één mens te redden maar in alle andere gevallen raakte de robot in verwarring doordat hij voortdurend moest afwegen wat hij moest doen om beide mensen te redden.


Twee andere Amerikanen, hoogleraar informatica Michael Anderson en zijn vrouw, hoogleraar filosofie Susan Anderson slaagden erin zorgrobots te bouwen die al evenzeer in staat bleken ethische of morele dilemma's aan te kunnen. In hun geval was de learning machine niet gebaseerd op enorme hoeveelheden data, maar juist op slechts een beperkt aantal kwesties en voorbeeldsituaties waarbij de robot verteld wordt hoe en waarom er in die situaties gehandeld moet worden om tot een oplossing te komen.

Natuurlijk blijft er altijd een zwakke plek over en dat is met name het geval als de instructeurs van robots daadwerkelijk slechte bedoelingen hebben. Maar Winfield en de Andersons zijn daarover optimistisch gestemd. Winfield: "het zal nog even duren voordat robots in staat zijn goed te reageren op complexe ethische dilemma's en hun acties achteraf kunnen verklaren".

Zie ook de volgende post.

2 opmerkingen:

John Wervenbos zei

Mooi blog. Wat heb ik indertijd als adolescent en jong volwassene Asimov's Foundation-Trilogie (SF) met heel veel plezier en interesse gelezen! Overigens zijn mensen ook in staat om robots uit te rusten met logaritmische instructies en functionaliteit die minder menslievend is. Denk met name aan de oorlogsindustrie. En dan zij daar ook nog een toekomstige generatie van robots die naast mechanische ook biologische componenten zullen dragen. 'k Kan me indenken dat bij die generatie op een zeker moment bewustzijn of zelfbewustzijn zou kunnen optreden of iets in die vorm. En hoe dat zich dan weer evolueert, is dan weer een volgende vraag.

enno nuy zei

Ja, het is even fascinerend als verontrustend. We zijn deze weg ingeslagen en een weg terug is er volgens mij niet meer. En je hebt helemaal gelijk: als de instructeur van de robot slechte bedoelingen heeft, is het kwaad kersen eten.