Illustratie: Esther Aarts (voor De Correspondent)

Stel: je rijdt op een smalle slingerweg in de Alpen in een zelfrijdende auto. De auto is Rijden in een zelfrijdende auto is zelfs oersaai, als we Wired mogen geloven. comfortabeler, veiliger en een stuk Onderzoeker Lawrence Burns van de University of Michigan schat in dat zelfrijdende auto’s bijna 70 procent goedkoper kunnen zijn dan de huidige auto’s. dan je eigen auto. Terwijl jij een film zit te kijken, steekt iets verderop een kind de weg over. Het kind struikelt en valt op de grond nét wanneer jij de bocht om komt.

De auto kan niet op tijd remmen om het kind te redden, maar kan zichzelf wel van de weg af het ravijn in sturen - en daarmee jou opofferen om het kind te redden. Wat moet zo’n auto kiezen?

Dit Het dilemma is een variant van het zogeheten ‘trolleyprobleem.’ Dit gedachte-experiment uit 1967 stelt dat er een op hol geslagen tram/trolley aan komt denderen. Jij staat een eindje verderop bij een wissel, en je moet kiezen tussen vijf mensen aanrijden op het ene spoor, of één persoon aanrijden op het andere spoor. Het is een handige metafoor om ideeën zoals deontologie en utilitarisme te verkennen. lijkt regelrecht uit sciencefictionboeken te komen. Vandaar ook dat het keer op keer terugkomt in de discussie over zelfrijdende auto’s en verkeersveiligheid. Het voorbeeld uit het begin van dit verhaal is geïnspireerd op dit artikel. Rij je het kind aan (of bijvoorbeeld een groep van Dit onderzoek vroeg mensen o.a. of ze in een auto zouden stappen als die hen opoffert om tien andere mensen te redden. tien mensen) of offert de auto zichzelf inclusief inzittenden op?

Elke keer wordt de auto voor een moreel dilemma gezet - terwijl daar eigenlijk geen goede reden voor is.

Voor alle duidelijkheid: verkeersveiligheid is De verwachting is dat het verkeer met zelfrijdende voertuigen een stuk veiliger en beter gaat worden. Op dit moment is bij 80 procent van alle verkeersongelukken sprake van weggebruikers die niet opletten. Een machine daarentegen kan altijd opletten, in alle richtingen tegelijkertijd kijken en veel sneller anticiperen dan wij.
en zelfrijdende auto’s zullen ongetwijfeld in lastige situaties terechtkomen. Hoe de auto daarop reageert, zal het verschil kunnen maken tussen leven en dood. Wat we dus zoeken is een goede manier om zelfrijdende auto’s ethisch te laten rijden. Maar het voorbeeld hierboven - hoe pakkend ook - is misleidend.

Een verkeerssituatie is geen dilemma

In bijna elk ethisch dilemma met zelfrijdende auto’s moet je kiezen tussen het aanrijden van de ene of de andere groep mensen. Of tussen het kind aanrijden of jezelf het ravijn in storten - er zijn telkens maar twee mogelijkheden. Echte verkeerssituaties daarentegen zijn vaak veel ingewikkelder. Hoe je in zo’n situatie handelt, hangt sterk van de situatie af.

Neem de omgeving. Hoe ziet de weg eruit, hoeveel grip heb je? Hoe lang is die bocht eigenlijk? Welke verkeersregels gelden hier? Is er een vangrail? Hoe ziet de berm eruit?

De auto zit in een verkeerssysteem dat volledig wordt genegeerd

Het weer speelt vaak ook een rol. Misschien staat de zon laag, heeft het net gesneeuwd of liggen er bladeren op de weg. Daarnaast maakt het ook uit hoeveel andere weggebruikers er zijn, waar die zich bevinden en wie het zijn. Kinderen, bejaarden, whatsappende fietsers, pizzakoeriers, afgeleide automobilisten of aangeschoten studenten: allemaal gedragen ze zich anders in het verkeer.

Om de auto heen zit dus een heel verkeerssysteem dat volledig wordt genegeerd als we het alleen maar over hypothetische dilemma’s hebben.

De werkelijkheid is complexer, maar daarom ook beter behapbaar

Het spannende dilemma versimpelt de verkeerssituatie, alsof de morele keuze de enige keuze is die ertoe doet. Een nadeel van zo’n versimpeld beeld is dat het moeilijk wordt om tot goede oplossingen te komen.

‘Ethische, abstracte dilemma’s werken vaak verlammend: niemand weet wat je in zo’n situatie precies moet doen,’ zegt filosoof Filippo Santoni de Sio. ‘Als je kijkt naar hoe het complexe systeem echt werkt, dan wordt de situatie een stuk beter behapbaar.’

Om een zelfrijdende auto op een ethische manier te laten rijden, moet de auto dus leren omgaan met het hele verkeerssysteem. Dat maakt het probleem zowel lastiger als makkelijker.

Het maakt het lastiger omdat de auto in benarde situaties met van alles rekening moet houden: onvoorspelbare weggebruikers, kwaliteit van het wegdek, de weersomstandigheden, verkeersregels en hoe de omgeving eruitziet. Misschien sneeuwde het in de Alpen, misschien heeft de auto last van een bumperklever of doen de remmen het niet goed. Of misschien Google is voortdurend bezig met het testen van zelfrijdende auto’s. Wat te doen met een plotseling overstekende eend? Zie dit filmpje (vanaf 26:15). loopt er een eend op de weg.

Tegelijkertijd is er ook veel meer mogelijk dan zo’n dilemma doet vermoeden. De auto reageert sneller dan wij en kan misschien hard genoeg remmen om het kind te redden. De auto kan tegen de vangrail of tegen een rotswand schuren om sneller af te remmen. Misschien past de auto er nog nét langs of kan hij met twee wielen in de berm eromheen rijden. Zo zijn er tientallen mogelijke routes die wij in zo’n kort tijdsbestek niet kunnen overwegen, maar een zelfrijdende auto wel.

Natuurlijk kan zo’n specifieke situatie zoals in de Alpen wel voorkomen, maar waarschijnlijk zeer zelden. Santoni de Sio: ‘Misschien eens in de honderd jaar. Het is een fascinerend onderwerp voor filosofische discussies, maar waarschijnlijk niet het meest urgente probleem.’

Kan een auto ethisch denken?

Toch komt een zelfrijdende auto wél vaak in andere situaties terecht waarin mensenlevens in gevaar kunnen zijn. Kan een zelfrijdende auto dan eigenlijk de waarde van die levens afwegen - met andere woorden, kan een auto dus ethisch denken?

Ik vroeg het Marieke Kassenberg, die het Het WEpods-onderzoeksproject is een samenwerking tussen de universiteiten van Wageningen en Delft, meerdere onderzoeksinstellingen en overheidsorganisaties. Ze ontwikkelen een volledig zelfrijdende auto die nu testrondjes maakt over de campus van Wageningen. -project in Wageningen leidt: ‘Dat soort afwegingen zijn veel te ingewikkeld. Hoe meer mensen je hierover spreekt, hoe meer je in zo’n afweging zou kunnen meenemen. Je zou bijvoorbeeld willen meenemen hoeveel jaren iemand nog te leven heeft. Maar dan kom je direct op privacygevoelig terrein.’

En zelfs als je al die informatie wel hebt, is het vrijwel onmogelijk om te bepalen wat dan zwaarder weegt. ‘Wat we nu bij de WEpods ingeprogrammeerd hebben is heel simpel: gewoon remmen. We rijden maximaal 25 kilometer per uur en dan is remmen eigenlijk altijd goed genoeg.’

Omdat het zo lastig is de waarde te berekenen van alle verkeersdeelnemers, gebruikt de WEpod dus een simpele regel voor alle gevallen: remmen. Kunnen zelfrijdende auto’s dan misschien op basis van ethische regels leren anders te handelen? Ook dat is vrij lastig.

Kunnen zelfrijdende auto’s op basis van ethische regels leren anders te handelen?

Omdat er in het verkeer zoveel kan gebeuren, is het onmogelijk om voor elke situatie regels te bedenken. Op bijna elke regel (bijvoorbeeld: niet over een doorgetrokken streep rijden) is wel een uitzondering te bedenken (een boom op de weg). Wij gebruiken ons gezond verstand om te bepalen of we een regel kunnen overtreden, maar een zelfrijdende auto heeft dat Zie ook het recente artikel van Jesse Frederik over kunstmatige intelligentie. niet.

Wat kan een zelfrijdende auto dan wel? Ze komen in vele vormen en maten, maar werken vrijwel allemaal aan de hand van vier belangrijke stappen: meten, herkennen, voorspellen en Dit schema is gebaseerd op werk van de Duitse professor Klaus Dietmayer, die veel onderzoek doet naar zelfrijdende auto’s.

Van meten naar plannen

Meten gebeurt via allerlei sensoren. Zo is Googles zelfrijdende auto onder meer uitgerust met camera’s, een 360-gradenlaserscanner, radars en zelfs meerdere De auto heeft zowel ultrasone sensors, waarmee afstand tot objecten dicht bij de auto precies kan worden gemeten, als gewone microfoons om bijvoorbeeld hulpdiensten te kunnen horen. Die sensoren zijn niet perfect. Daarom gebruikt de auto statistiek: hij berekent de kans dat zijn meting ook echt Specifieker, Bayesiaanse kansen en Kalman-filters spelen een belangrijke rol in het verwerken van de informatie die de auto binnenkrijgt. Bayesiaanse kansen gaan niet over hoe vaak iets gemeten wordt, maar hoe geloofwaardig de meting is. Nieuwe informatie versterkt of verzwakt dit geloof, de filters zorgen ervoor dat ruis uit de geloofswaarde wordt gehouden. Hoe meer sensoren en metingen, hoe zekerder de auto van zijn zaak is.

Vervolgens verwerkt de auto deze informatie om objecten in de omgeving te herkennen. Waar zijn andere weggebruikers? Hoe zien ze eruit? Op wat voor soort weg rijdt de auto, met welke snelheid? Zijn er stoplichten en verkeersborden waar hij rekening mee moet houden?

Als alles in de omgeving herkend is, kan de auto voorspellingen maken. Voor alle objecten in de omgeving wordt berekend waar ze naartoe kunnen gaan en hoe groot de kans is dát ze daar heen gaan. Die voorspellingen bepalen dan waar de auto heen kán gaan (en waar niet).

Dan slaat de zelfrijdende auto aan het plannen. De algoritmes berekenen hoe veilig de tientallen routes zijn die de auto kan nemen. Waar dat op neerkomt is dat de auto alle risico’s om zich heen inschat en alle botsingen probeert te voorkomen.

En de ethische stap?

Een zelfrijdende auto herkent dus objecten, voorspelt waar ze heen gaan en vermijdt botsingen. Wat misschien opvalt, is dat er geen ‘ethische denkstap’ is. De planningstap zou deze kunnen bevatten, maar dit is zeker geen vereiste. Ethisch verantwoord rijden kan namelijk ook zonder de auto ethisch te laten denken. Als je goed kan voorspellen waar andere weggebruikers naartoe gaan en goed weet hoe de omgeving eruitziet, kun je ontzettend ver komen.

Ook daarom zal het dilemma uit de intro bijna niet voorkomen: de auto hoort gevaarlijke situaties en weggebruikers vroeg genoeg te herkennen om botsingen te vermijden.

De uitdaging voor technici is om de vier stappen betrouwbaar te maken in allerlei omstandigheden, zodat de auto bijna altijd de veiligste route plant - en dus per definitie ethisch rijdt. Zie hier bijvoorbeeld hoe Googles auto dat zou doen. (Vanaf 18:32) Zelfs op smalle bergwegen.

Wat er dit jaar misging bij een zelfrijdende Tesla

Toch: perfect zullen zelfrijdende auto’s waarschijnlijk nooit worden. Eerder dit jaar kwam een bestuurder van een Tesla om bij een ongeluk, terwijl de Dit is de naam die Tesla geeft aan zijn systeem waarbij de auto cruisecontrol combineert met het volgen van de weg of het volgen van de voorganger. Het systeem is nog pril, maar Tesla-eigenaren kunnen het al uitproberen. Wanneer de bestuurder - onder goede omstandigheden - de Autopilot aanzet, kan de auto dus zelf rijden. De handen kun je dan van het stuur halen (al mag dat niet van Tesla).
van de auto aanstond. Wat ging er mis? En belangrijker: wie is in zo’n geval verantwoordelijk?

De Tesla reed op een snelweg waar een vrachtwagen overstak - de chauffeur zag de Tesla niet aankomen. De Tesla gebruikt radar en een camera om op snelwegen zelf te rijden. Beide sensoren konden de situatie niet aan: de camera zag het verschil niet tussen de witte vrachtwagen en de witte lucht. De radar zag een metalen balk (de oplegger) boven de weg, maar de auto dacht dat het een bord boven de weg was en probeerde er dus onderdoor te rijden.

In een persverklaring stelt Tesla dat zijn systeem werkt zoals het is bedoeld - terwijl het een vrachtwagen niet zag aankomen

Ook het laatste redmiddel, de bestuurder van de Tesla, had zijn Geruchten gaan dat de bestuurder vlak voor het ongeluk een Harry Potter-film aan het kijken was. niet op de weg en greep dus niet in. Daarnaast reed de auto ook nog eens te Lees hier het verslag van de Amerikaanse verkeersveiligheidsraad over het ongeluk met de Tesla. hard.

Er ging dus van alles mis. Wie is dan de schuldige? Zowel Tesla, de truckchauffeur als de autobestuurder maakte fouten. In een persverklaring stelt Tesla dat zijn Autopilot-systeem werkt zoals het bedoeld is - terwijl het dus een vrachtwagen niet Lees hier de verklaring van Tesla naar aanleiding van het ongeluk. zag In de woorden van Tesla: ‘In the moments leading up to the collision, there is no evidence to suggest that Autopilot was not operating as designed and as described to users: specifically, as a driver assistance system that maintains a vehicle’s position in lane and adjusts the vehicle’s speed to match surrounding traffic.’ De vrachtwagen werd dus niet gezien als ‘surrounding traffic’ omdat het om de zijkant van de vrachtwagen ging. ‘Had the Model S impacted the front or rear of the trailer, even at high speed, its advanced crash safety system would likely have prevented serious injury as it has in numerous other similar incidents.’

Dat komt grotendeels omdat Tesla’s maar twee sensoren gebruiken om gevaren te Naast radar en de camera’s heeft een Tesla ook ultrasone sensors die vijf meter rond de auto kunnen horen en een gps, maar beide systemen zijn bij hogere snelheden niet erg nuttig voor het herkennen van grote gevaren. veel minder dan andere zelfrijdende auto’s. Of Tesla ook vanwege die keuze verantwoordelijkheid draagt voor dit soort ongelukken, moet nog blijken.

Wie is er verantwoordelijk als het fout gaat?

Wat het nog eens lastiger maakt, is dat er naast Tesla en de beide bestuurders nog meer verantwoordelijken aan te wijzen zijn. Santoni de Sio: ‘Bij ongelukken met zelfrijdende auto’s wordt de verantwoordelijkheid vaak gelegd bij de bestuurder óf de programmeur. Maar in werkelijkheid zijn er nog veel meer mensen, bedrijven, overheden en organisaties verantwoordelijk.’ Denk bijvoorbeeld aan de RDW, die de Autopilotfunctie van Tesla hier al heeft De RDW is verantwoordelijk voor al het wegverkeer in Nederland. In oktober 2015 keurde de dienst de Autopilot van de Tesla goed, zoals te lezen in de link. Na het ongeluk in de VS eiste de RDW wel inzage in het Amerikaanse onderzoeksrapport. goedgekeurd.

Hoe we die verantwoordelijkheid precies verdelen over bestuurders, bedrijven en instanties, is nog de vraag. De overheid zou hier een rol in kunnen spelen door heel strenge standaarden en normen op te stellen. Santoni de Sio stelt voor om naast technische ook juridische professionals te betrekken, omdat die ervaren zijn in het afwegen van belangen, waarden en verantwoordelijkheden in ingewikkelde situaties.

Het is in ieder geval geen goed idee om de ontwikkeling van de zelfrijdende auto volledig over te laten aan de autobouwers. Juist vanwege de complexe techniek moeten we kritisch blijven op de keuzes die deze bedrijven maken - nu we de technologie nog de goede kant op kunnen sturen.

Lees meer over zelfrijdende auto’s en kunstmatige intelligentie

Hoe Google met de zelfrijdende auto de hele wereld tot in detail in kaart aan het brengen is Google loopt mijlenver vooruit op de ontwikkeling van een zelfrijdende auto. Maar de bijzondere aanpak van Google werpt ook een aantal ethische vragen op. In dit stuk leg ik uit wat zo bijzonder is aan deze auto en op welke vragen we nog een antwoord moeten krijgen. Lees het verhaal van Anne hier terug Dankzij dit spelletje krijgen machines intuïtie die wij niet kunnen begrijpen Vanochtend won AlphaGo, een kunstmatig intelligent algoritme van Google, voor de tweede keer van de beste menselijke Go-speler ter wereld, Lee Sedol. AlphaGo kan betere beslissingen nemen dan hij, zonder dat mensen nog kunnen begrijpen hoe die tot stand zijn gekomen. Lees het verhaal van Thalia hier terug Kunstmatige intelligentie is een beetje dom (en zal dat nog wel even blijven) Zelfrijdende auto’s, zorgrobots, spelcomputers die de wereldkampioen verslaan: de belofte van kunstmatige intelligentie wordt met de dag groter. Maar het kan nog altijd veel meer níet dan wel. Vijf fundamentele redenen waarom het computerbrein dommer is dan je denkt. Lees het verhaal van Jesse hier terug

Facebook
Twitter
LinkedIn
Whatsapp
E-mail