Nu de zelf-rijdende auto in rap tempo dichterbij komt, stapelen de ethische vragen zich op. Staan de taxi-chauffeurs straks allemaal op straat? En wat als mijn auto per ongeluk iemand aanrijdt? Of erger nog, wat als mijn auto expres iemand aanrijdt? Is mijn auto boosaardig (“evil”)?

 Laten we eerst eens definiëren wat dat betekent, dat boosaardig. Ik raad een ieder aan wat te lezen over Hobbes, Locke en Rousseau. Hobbes zegt bijvoorbeeld dat mensen van nature oorlogszuchtig zijn, terwijl Locke zegt dat er helemaal geen goed of slecht bestaat.

Laat ik het wat makkelijker maken door te wijzen op de schade die handelingen aanrichten, vergeleken met de winst van die handeling. Als je snoep afpakt van een kind, dan vindt men dat al snel gemeen. Je doet dat kind emotioneel pijn maar de winst is vrij klein.

Maar wat nu als je dat snoep pakt uit een vergeten opslag en het vervolgens aan kinderen uitdeelt? Dan maak je veel mensen blij en de schade is minimaal. Dit klinkt misschien wat kort door de bocht, maar is een morele afweging die robots op een dag moeten maken. Als ik deze handeling uitvoer, heeft mijn eigenaar daar dan baat bij of schade van?

robot

Dan komen we bij de bekende wetten van Asimov, die je misschien kent als de schrijver van I, Robot (en de losse verfilming). De regels zijn:

  1. Een robot mag een mens geen letsel toebrengen of, door niet te handelen, toestaan dat een mens letsel oploopt.
  2. Een robot moet de bevelen uitvoeren die hem door mensen gegeven worden, behalve als die opdrachten in strijd zijn met de Eerste Wet.
  3. Een robot moet zijn eigen bestaan beschermen, voor zover die bescherming niet in strijd is met de Eerste of Tweede Wet.

Zoals je meteen al merkt, zijn deze wetten nogal subjectief. Een robot moet afwegen of zijn acties letsel kunnen veroorzaken. Voor mensen is dat al moeilijk zat maar voor een robot al helemaal. Hoe weet de robot dat het afpakken van snoep emotionele pijn zal veroorzaken? En is dat wel letsel?

Stel dat de enige manier om zijn eigenaar het leven te redden is door snoep af te pakken van een kind en dat aan zijn eigenaar te geven? Als een hond merkt dat zijn baasje wordt aangevallen dan zal hij de aanvaller te lijf gaan. Het is niet vergezocht om te denken dat robots soortgelijk worden ingesteld.

Self-Driving-Car[1]

In het geautomatiseerde verkeer gaan we deze morele keuzes ook tegenkomen. Stel dat een colonne zelf-rijdende auto’s met hoge snelheid over de snelweg raast. Plots steekt er iemand de weg over, en de auto staat voor een keuze. De chauffeur zou waarschijnlijk als reflex vol op de rem trappen en daarmee een enorme kettingbotsing veroorzaken met veel letsel tot gevolg. Maar de auto staat nu voor de keuze. Wetende dat hard remmen een hoog risico met zich meebrengt, net als uitwijken naar de vangrail. Wat de keuze ook is, het resultaat kan desastreus zijn. Net als in de situatie met het snoep uitdelen kan de auto beslissen dat de hoeveelheid schade het kleinst is door niet te remmen. Één slachtoffer tegenover een heleboel, een kwestie van optimalisatie.

De vraag is wat we doen met de auto en de chauffeur. Kan de chauffeur, de mens die toevallig in de bestuurdersstoel zat tijdens het ongeluk, aansprakelijk worden gesteld? En als de auto moedwillig iemand heeft aangereden omdat dat de enige manier was om de chauffeur te redden, maakt dat de auto boosaardig?

 

Abonneer
Abonneren op
1 Reactie
Inline Feedbacks
Bekijk alle reacties
Rob
Beheerder
Rob
9 jaren geleden

Leuk stuk Yoeri, Maar ik mag graag gaten schieten in theorieën. Tussen een colonne zelfrijdende auto’s bestaat communicatie. Oftewel, ze houden elkaar in de gaten. De auto zal dus altijd beslissen vol op de rem te gaan staan want het systeem zorgt er direct voor dat ook de auto’s achter hem worden geactiveerd. Ook omdat de auto waarschijnlijk is ingesteld met de geldende verkeersregels en dus uit gaat van een redelijke afstand tussen hem en de achter hem rijdende auto’s. Hij zal dus een waarschijnlijk letsel altijd boven een zeker letsel verkiezen. Het enge zal meer gaan zitten in (wat… Lees verder »