Automoral

Wenn in Deutschland über autonome Autos nachgedacht, diskutiert oder geschrieben wird, stehen vor allem zwei Fragen im Vordergrund:

  1. Was passiert eigentlich, wenn ein autonomes Auto einen Unfall hat?
  2. Geben wir als Fahrer nicht ein Stück unserer Freiheit auf, wenn wir nicht mehr selber lenken?

Zunächst mal sind Unfälle die Ausnahme beim Autofahren. Oder sie sollten es zumindest sein. Klar ist, dass ein weitgehend automatisiertes Auto sehr viel weniger Unfälle verursachen würde, als ein vom Mensch gesteuertes Vehikel. Das hat auch eine 14-köpfige Kommission unter der Leitung von Udo di Fabio festgestellt, die für die Bundesregierung jetzt ethische Leitlinien für die Programmierung automatisierter Autos erarbeitet hat. 

Digitale Technik soll in Zukunft Unfälle so gut wie unmöglich machen, sagt die Ethik-Kommission. Das muss das wichtigste Ziel der Mobilitäts-Programmierer sein. „Wenn ein Unfall aber nicht mehr vermeidbar ist, stellen sich ethische Fragen“, erklärt di Fabio die Aufgabe seiner Arbeitsgruppe. Wir reden hier also über die Ausnahmefälle eines weitgehend unfallfreien Betriebes. 

22 Empfehlungen sind bei den Überlegungen herausgekommen. Unter anderem diese hier:

Der Rechner im Auto darf keinen Algorithmus enthalten, der entscheidet, dass das Leben eines kleinen Kindes in einer Unfallsituation mehr wert ist als das eines 75-jährigen Rentners.

Er sollte Menschen auch nicht nach Größe, Alter oder körperlicher Verfassung unterscheiden. 

Eine Aufrechnung von Opfern wird untersagt. Das Auto darf seine Entscheidungen in einer Krisensituation nicht nach der Höhe der zu erwartenden Opfer richten. 

Das System darf nicht um jeden Preis das Leben des Fahrers retten, wenn dadurch das Leben mehrerer anderer Personen gefährdet ist.

Alle Daten der autonomen Autos sollen in Zukunft in einer Art Black Box aufgezeichnet werden. Wie in Flugzeugen. Eine unabhängige Institution hat dann die Aufgabe, die Daten zu prüfen, wenn etwas schief gegangen ist.

Die Verbraucherzentralen fordern außerdem eine Art TÜV für Algorithmen, die Autos steuern. Damit soll sicher gestellt sein, dass sie in Unfallsituationen im Sinne der vereinbarten ethischen Grundsätze entscheiden. Deutschlands oberster Verbraucherschützer Klaus Müller sagte dem Handelsblatt: „Der Motor und die Bremsen sind weiter wichtig, aber die Software ist es zunehmend auch. Wir brauchen eine unabhängige Stelle, die in der Lage ist, die Algorithmen zu überprüfen.“

Maschinen mit Moralvorstellungen von Menschen

Dass die Algorithmen in intelligenten Maschinen nach den Maßstäben unserer menschlichen Moral entscheiden müssen, ist also erkannt. Doch die Entscheidung, welches Leben in Unfallsituationen zu schützen und welches zu opfern sei, können auch sie nicht fällen. Eine weitere grundsätzliche Frage bleibt umstritten: Welche Moralvorstellungen sollen von Computern eigentlich übernommen werden? Im Falle von Autos dürften das zum Beispiel nicht die Vorstellungen der Hersteller sein. Die würde nämlich alles tun, um ihre Fahrer zu schützen. Die Interessen der restlichen Verkehrsteilnehmer blieben unberücksichtigt. 

Algorithmen sind allerdings zu kompliziert, um sie von einen Verbraucher-TÜV prüfen zu lassen. Die technische Entwicklung ist viel zu rasant. Wir werden anhand des Verhaltens der Autos und mit Hilfe von Datenaufzeichnung erkennen können, ob sich Autos an die vereinbarten Regeln halten. Falsche Entscheidungen wird es jedoch immer geben. Von Menschen und Maschinen. Aber insgesamt wird die Fehlerrate der Computer dramatisch niedriger sein als die des menschlichen Fahrers. Leben werden gerettet.

Ach ja, Freiheit geben wir übrigens im selbstfahrenden Auto nicht auf. Im Gegenteil. Wir bestimmen immer noch selber das Ziel. Aber wir können während der Fahrt wichtigere Dinge erledigen als zu blinken oder auf das Gaspedal zu drücken.

Foto: NamensnennungWeitergabe unter gleichen Bedingungen Bestimmte Rechte vorbehalten von Aidan-Sally