Das ist das neue autonom fahrende Forschungsfahrzeug F 015 „Luxury in Motion“ von Mercedes-Benz

Das hier ist eine der bekanntesten Fragen der Ethik und Rechtsprechung: „Eine Straßenbahn ist außer Kontrolle geraten und droht fünf Menschen zu töten. Durch das Umlegen einer Weiche können sie gerettet werden, allerdings käme dann eine andere, unbeteiligte Person zu Tode. Wie soll man sich entscheiden?“

Bisher war das Problem praktisch auf Terroranschläge beschränkt, wobei der Bundesgerichtshof 2006 klar entschieden hat, dass man zum Beispiel kein entführtes Flugzeug abschießen darf, weil es mit „…dem Recht auf Leben nach Art. 2 Abs. 2 Satz 1 GG in Verbindung mit der Menschenwürdegarantie des Art. 1 Abs. 1 GG nicht vereinbar [ist]“. Das Problem ist nur, dass jetzt Autohersteller genau vor dieser Frage stehen.

Die Computer im Auto müssen mit einer Software gefüttert sein, die dieses Problem löst, beziehungsweise, die eine Entscheidung trifft. Überfahre ich eine einzelne Person, fahre ich in einen Gruppe von Personen oder gefährde ich das Leben meines Fahrers? Ein menschlicher Pilot muss sich zudem für sein Handeln später vor einem Gericht verantworten. Aber wen stellt man vor Gericht, wenn das Auto alleine unterwegs war?

Rein rechtlich gesehen ist die Frage leicht zu beantworten: Es gibt eine Herstellerhaftung. Mittlerweile haben Volvo, Mercedes und Google bekannt gegeben, dass man die Verantwortung für den Unfall eines komplett autonom fahrenden Fahrzeugs übernehmen will. Das bedeutet aber, dass die Hersteller nach einem Unfall nur dann einspringen, wenn es komplett klar ist, dass der Fahrer zu keiner Zeit die Möglichkeit hatte, in die Entscheidung des Wagens einzugreifen.

Aber was passiert, wenn man das Beispiel von oben umdreht? Wenn also ein Fahrer in mörderischer Absicht auf fünf Personen zufährt und die Elektronik dann eingreift? Darf sie entscheiden, dass der Tod eines Menschen eher in Kauf zu nehmen ist, als der Tod der fünf Menschen? Ein anderes Beispiel: Wenn jemand in selbstmörderischer Absicht auf die Strasse springt, darf das Fahrzeug dann ausweichen und eventuell seinen Fahrer gefährden? Woher soll die Elektronik wissen, dass jemand Selbstmord begehen möchte? Am Ende steht die Frage, ob die Elektronik überhaupt in die Entscheidung eines Menschen eingreifen darf.

Dass ein Auto die Entscheidung treffen kann, seinen Fahrer zu töten, statt in eine Gruppe Kinder zu fahren, macht vielen Herstellern Sorgen. Denn wer will schon so ein Auto kaufen? Bei einem Versuch der Toulouse School of Economics wurden mehrere hundert Personen befragt, ob sie die Entscheidung des Fahrzeugs, dass der Fahrer stirbt, befürworten würden. Die meisten bejahten die Frage, stellten allerdings auch klar, dass sie so ein Auto nicht kaufen würden.

Es stellt sich aber auch die Frage, ob man ein ethisches Regelwerk überhaupt programmieren kann. Kann man Wertesysteme in einen Algorithmus packen, der dann alle Entscheidungen trifft? Was, wenn sich die Moral- oder Ethikvorstellungen ändern? Der bekannte Philosoph Julian Nida-Rümelin findet es bedenklich, wenn Maschinen komplexe moralische Entscheidungen treffen. Er hat die Idee eines Zufallgenerators ins Spiel gebracht, bei dem die Software halt zufällig entscheidet, was sie als nächstes macht.

Das würde bedeuten, dass sie mal in die Gruppe mit den fünf Personen fährt, mal lenkt sie den Wagen so, dass der Fahrer stirbt. Das Element des Schicksals würde weiter regieren und den Herstellern das Problem abnehmen, dass sie Algorithmen programmieren müssen, die entscheiden, welcher Schaden denn nun der geringste sein könnte. Entschieden haben die Hersteller allerdings noch nicht, was sie machen wollen. Dabei drängt die Zeit, denn schon 2018 sollen die ersten autonomen Fahrzeuge auf den Autobahnen unterwegs sein.

Bild: Daimler AG