Robots die ‘nee’ zeggen, is dat een goed idee? Onderzoekers denken van wel, want op termijn moet kunstmatige intelligentie net zulke ethische overwegingen maken als wijzelf.

We hebben allemaal een science-fictionfilm gezien waarin robots weigeren taken uit te voeren die mensen hen opdragen. Dus het lijkt verstandig om robots zo te programmeren dat ze mensen altijd gehoorzamen. Isaac Asimov schreef er boekenseries over vol. Maar onderzoekers van de Tufts University in de Amerikaanse staat Massachusetts zoeken juist de grenzen op van die wetten. Ze leren robots ‘nee’ te zeggen.

Toegegeven, in het geval van autobouwende robots is het niet handig als die ineens gaan afwijken van hun programmering. Maar de nieuwste robots krijgen steeds complexere taken en moeten daar zelf over na gaan denken. De onderzoekers hebben daarom een denkpad ontworpen dat een robot in staat moet stellen om een bevel te analyseren.

Principes van een robot

Het draait om vijf vragen die toenemen in complexiteit. Weet ik hoe ik het commando moet uitvoeren? Ben ik in staat om dit te doen? Kan ik het bevel onmiddelijk opvolgen? Vraagt mijn sociale rol dat ik gehoorzaam? Ga ik in tegen principes als ik dit commando opvolg? De laatste vraag is uiteraard de belangrijkste, want een mens verwonden of schade aanrichten is natuurlijk een robotprincipe dat onverwoestbaar hoort te zijn.

Spectrum IEEE schrijft over het onderzoek en toont ook video’s waarin de wetenschappers simpele taken opleggen aan robots, zoals rechtdoorlopen richting de rand van een tafel.

Beargumenteerd excuus

De vijf vragen zijn cruciaal voor de robot. Door ze te beantwoorden kan het apparaat een beargumenteerd excuus geven als het een commando niet kan opvolgen. Reagerend daarop kan de mens zijn bevel aanpassen of aanvullende informatie geven.

Dit soort overwegingen over ethiek en risico's zullen alleen maar belangrijker worden, bijvoorbeeld voor pakketbezorging met drones of zelfrijdende auto's.

 

Dit artikel is oorspronkelijk verschenen op z24.nl