Stel je voor dat je in een auto zit die zichzelf bestuurt. Je zit op de achterbank en speelt een spelletje op je telefoon, wanneer de auto plotseling een snelle beslissing neemt om uit te wijken en te voorkomen dat een hond wordt aangereden die de straat op rende. Maar daarbij botst hij tegen een andere auto. De grote vraag is: wie is verantwoordelijk voor die crash? Ben jij het, het bedrijf dat de auto heeft gemaakt, of misschien de software die de auto bestuurt?
Dit is wat mensen proberen te achterhalen nu zelfrijdende auto’s, ook wel autonome auto’s genoemd, steeds gebruikelijker worden. Er zijn talloze ethische en juridische vragen over wie de leiding heeft als deze auto’s betrokken raken bij een ongeval, en het antwoord is niet altijd eenvoudig.
Hoe nemen autonome auto’s beslissingen?
Om het probleem te begrijpen, moeten we eerst kijken hoe autonome auto’s werk. Deze auto’s maken gebruik van kunstmatige intelligentie (AI) om te rijden. Beschouw AI als een superslim brein dat allerlei informatie verwerkt, zoals hoe snel de auto rijdt, waar andere auto’s zich bevinden en wat de verkeerslichten doen. De auto maakt gebruik van sensoren, camera’s en iets dat LIDAR wordt genoemd (wat lijkt op radar maar met lasers) om de omgeving te ‘zien’.
Maar hier komt het lastige: soms moet de auto moeilijke beslissingen nemen. Laten we zeggen dat een auto richting een zebrapad rijdt en plotseling springen twee mensen de weg op. De auto moet beslissen wie of wat hij wil beschermen: de mensen op het zebrapad of de passagier in de auto. Dit is een grote ethische vraag, en mensen zijn nog steeds aan het uitzoeken hoe ze de AI van de auto kunnen leren om die beslissingen te nemen.
Het is een beetje zoals de “karretje probleem”, wat een beroemde ethische puzzel is. In het probleem rijdt een trolley op vijf mensen af, en jij hebt de macht om van baan te wisselen om ze te redden, maar je zou één persoon op de andere baan pijn doen. Er is geen juist antwoord, en dat is precies wat het zo ingewikkeld maakt voor autonome auto’s.
Wie heeft de schuld bij een ongeval?
Laten we het nu hebben over verantwoordelijkheid. Bij een normaal auto-ongeluk is het vrij duidelijk wie de schuldige is; meestal is het een van de bestuurders. Maar in een autonome auto is er misschien helemaal geen bestuurder, of let de persoon in de auto misschien niet eens op wanneer de crash plaatsvindt. Dus wie is verantwoordelijk?
Er zijn een paar opties:
- De fabrikant: Als de crash gebeurde omdat er iets in de auto niet goed functioneerde, bijvoorbeeld als de remmen niet werkten, dan kan het bedrijf dat de auto heeft gemaakt aansprakelijk worden gesteld.
- De softwareontwikkelaar: Als het probleem te maken had met de besluitvorming van de AI, zou het bedrijf dat de software heeft ontworpen de schuld kunnen krijgen. Dit kan gebeuren als de auto in een noodsituatie de verkeerde keuze heeft gemaakt.
- De menselijke passagier: Sommige zelfrijdende auto’s vereisen nog steeds dat mensen bereid zijn om de controle over te nemen als er iets misgaat. Als er een ongeluk gebeurt en de mens niet oplet, kunnen ze aansprakelijk worden gesteld.
- Externe bedrijven: Soms is een ander bedrijf verantwoordelijk voor het onderhoud van de auto’s (zoals een ritdeelservice die gebruik maakt van autonome auto’s). Als iets niet goed is opgelost, kunnen zij verantwoordelijk zijn voor de crash.
Een praktijkvoorbeeld hiervan gebeurde in 2018 toen een zelfrijdende auto van Uber een voetganger aanreed en doodde. In dat geval bleek dat de safety driver niet goed had opgelet, maar dat de AI van de auto ook niet snel genoeg handelde. Er is nog steeds een groot debat over wie nu werkelijk de schuldige is.
Juridische hulp
Als je betrokken bent bij een ongeval, of het nu een gewone auto of een autonome auto is, kan het zwaar zijn. U weet misschien niet wie de schuldige is of hoe u met het rechtssysteem moet omgaan. Dit is waar het inhuren van een advocaat auto-ongelukken kan helpen.
Een ervaren advocaat kan uitzoeken of het ongeval te wijten was aan een autostoring, een softwarefout of zelfs de nalatigheid van een andere bestuurder. Ze weten hoe ze bewijsmateriaal moeten verzamelen en hoe ze met verzekeringsmaatschappijen moeten omgaan, wat belangrijk is bij het bepalen wie de schade moet betalen. En als de zaak voor de rechter komt, kunnen zij u vertegenwoordigen en ervoor zorgen dat u een eerlijk resultaat krijgt.
Zij kunnen u ook vertellen wat u direct na het ongeval moet doen. Hoe u een politierapport indient, hoe u de scène documenteert of wanneer u medische evaluatie moet aanvragen. Dit zorgt ervoor dat u geen belangrijke stappen mist die later van invloed kunnen zijn op uw zaak.
De moeilijke beslissingen van de AI
Laten we teruggaan naar het idee dat de auto beslissingen neemt. Stel je voor: een zelfrijdende auto staat op het punt een hert aan te rijden dat plotseling de weg op springt. De AI heeft een fractie van een seconde om te beslissen: moet hij uitwijken om het hert te ontwijken en mogelijk tegen een andere auto botsen, of moet hij op koers blijven en het dier raken?
Het is niet altijd duidelijk hoe AI moet worden geprogrammeerd om met deze situaties om te gaan. In één land zouden mensen kunnen denken dat de auto altijd boven alles het menselijk leven moet beschermen. Op een andere plek zouden mensen kunnen betogen dat de auto de schade voor zoveel mogelijk mensen moet minimaliseren, zelfs als dat de passagiers in gevaar brengt. En deze beslissingen kunnen veranderen op basis van verschillende culturen of zelfs individuele voorkeuren.
Op dit moment proberen bedrijven die deze auto’s bouwen ethische richtlijnen te creëren om de AI te helpen dit soort beslissingen te nemen. Maar het is super ingewikkeld, omdat niemand het echt eens is over het “juiste” antwoord op deze problemen.
Kunnen we autonome auto’s vertrouwen?
Een groot deel van het debat over zelfrijdende auto’s gaat over vertrouwen. Mensen willen weten of ze erop kunnen vertrouwen dat deze auto’s in noodgevallen de juiste beslissingen kunnen nemen. En vertrouwen is moeilijk te winnen, vooral als er nog steeds crashes voorkomen.
Eén manier waarop bedrijven vertrouwen kunnen opbouwen is door transparant te zijn. Dat betekent dat ze open moeten zijn over hoe hun auto’s werken en welke beslissingen de AI moet nemen. Als mensen begrijpen wat er onder de motorkap gebeurt, is de kans groter dat ze zich veilig voelen.
Maar het is ook beangstigend om erover na te denken om een machine beslissingen over leven en dood voor ons te laten nemen. Hoewel autonome auto’s over het algemeen veiliger zijn dan menselijke bestuurders (aangezien mensen vaker afgeleid zijn of fouten maken), is het nog steeds moeilijk om de controle volledig uit handen te geven.
Bedrijven als Tesla en Waymo beweren dat hun technologie veiliger is dan menselijke bestuurders, maar er bestaat nog steeds veel scepsis. Uit een onderzoek uit 2022 bleek dat alleen maar 9% van de Amerikanen zegt dat ze zelfrijdende auto’s vertrouwen, terwijl 68% zegt er bang voor te zijn.
Hoe gaan overheden en bedrijven ermee om?
Regeringen over de hele wereld proberen regels te bedenken om autonome auto’s te helpen begeleiden. In de VS is de Ministerie van Transport heeft richtlijnen vrijgegeven voor zelfrijdende voertuigen, maar de wetten zijn nog steeds bezig met een inhaalslag op de technologie.
Sommige mensen suggereren dat autofabrikanten zouden moeten betalen aan een verzekeringsfonds dat ongevallen veroorzaakt door autonome voertuigen dekt. Anderen denken dat we strengere regels nodig hebben over hoe bedrijven hun AI-systemen testen voordat ze deze op de weg zetten.
Aan de kant van het bedrijf ligt de verantwoordelijkheid zowel bij de autofabrikanten als bij de softwareontwikkelaars. Ze moeten samenwerken om ervoor te zorgen dat de AI veilig is en dat de auto’s allerlei situaties in de echte wereld aankunnen.
Samengevat
Uiteindelijk is de vraag wie verantwoordelijk is als een autonome auto crasht nog steeds een grote puzzel. Het is duidelijk dat er geen pasklaar antwoord bestaat, en de manier waarop we met deze situaties omgaan zal afhangen van het soort juridische en ethische systemen dat we opzetten.
Naarmate het aantal autonome auto’s blijft groeien, zullen we moeten uitzoeken hoe we veiligheid, vertrouwen en verantwoordelijkheid in evenwicht kunnen brengen. Of het nu de autofabrikant, de softwareontwikkelaar of zelfs de menselijke passagier is, alle betrokkenen spelen een rol om ervoor te zorgen dat deze voertuigen veilig zijn voor iedereen op de weg.
Het is een grote opgave, maar als we het goed aanpakken, kunnen zelfrijdende auto’s een enorme stap voorwaarts zijn in het veiliger maken van onze wegen.
Uitgelichte afbeeldingscredits: Shubham Dhage/Unsplash