Test von einem autonomen Fahrsystem

Was genau den tragischen Unfall des autonomen Uber-Taxis in Arizona verursacht hat, ist noch nicht raus. Vieles deutet darauf hin, dass der Volvo die Fußgängerin wegen eines Kommunikationsfehlers zwischen den Sensoren und der für die Steuerung des Autos zuständigen Software überfahren hat. Dass die neuen Systeme noch fehleranfällig sind, ist logisch. Deswegen hatte Uber ja auch eine Kontrollperson auf dem Fahrersitz verpflichtet. Sie sollte die Umgebung genau im Blick haben. Aber wie das bei autonomen Systemen so ist – hat man sich daran gewöhnt, dass es funktioniert, lässt die Konzentration nach. Ob der Unfall tatsächlich hätte verhindert werden können, wenn die Kontrollperson aufmerksam gewesen wäre, wird eine Untersuchung zeigen.

Der mögliche Kontrollverlust über die Steuerung des eigenen Autos und die Furcht vor einem Computerfehler sind grob gesagt die größten Ängste, die deutsche Autofahrer mit einem autonomen Auto verbinden. Laut einer Mobility-Studie des IT-Branchenverbands Bitkom haben 68 Prozent der Deutschen Angst, dass ein autonomes Auto technische Probleme haben könnte. Das ist nachvollziehbar. Neue Technologien müssen erst die Hürde des Vertrauens überwinden. Das gelingt entweder, wenn man sich selber von der Funktionsfähigkeit überzeugt, oder wenn eine vertrauenswürdige Institution die Bedenkenlosigkeit bescheinigt.

Wer überwacht die Überwachungssysteme?

Und da gibt es ein Problem mit den selbstfahrenden Autos. Zwar werden auch die autonomen Fahrsysteme auf ihre Sicherheit überprüft und es gibt ISO-Richtlinien, zum Beispiel für Spurwechsel-Assistenten. Das gilt aber nur für die generellen Funktionalitäten, nicht für die dahinter liegenden Algorithmen. Die Frage, wie man selbstlernende Systeme überprüft, ist völlig ungeklärt. Es gibt weder eine Behörde, die den Quellcode der Software untersucht, noch gibt es Vorschriften, die regeln, nach welchen ethischen Grundlagen Algorithmen handeln sollen. Zwar hat die Bundesregierung in der letzten Legislaturperiode eine Ethik-Kommision zum Thema „Autonomes Fahren“ einberufen, ein Ergebnis in Gesetzesform gibt es aber nicht.

Immerhin gibt es das Forschungsprojekt „Pegasus“. Gefördert vom Bundeswirtschaftsministerium und unterstützt von der Autoindustrie wird dort versucht, Grundlagen und Regeln für das autonome Fahren zu entwickeln. Aber auch hier geht es nur um Testszenarien für die Erteilung einer Betriebserlaubnis – und nicht um die Überprüfung der grundlegenden Algorithmen.

Und so basteln weltweit unzählige Unternehmen und Startups an eigenen Algorithmen, die in Simulationen getestet werden. Gleichzeitig gibt es einen enormen wirtschaftlichen Druck, der Erste auf dem Markt zu sein. Was dann zu absurden Dingen wie dem Startup Comma.ai führt. Während andere Hersteller riesige Sensorbatterien auf die Autos bauen, setzt Comma in Sachen Sensoren fast ausschließlich auf das Smartphone und eine Dashcam. Auf der diesjährigen CES gab es ein chinesisches Unternehmen, das ebenfalls eine billige Komplettlösung anbot.

Wenn solche Notlösungen ihren Weg auf die Straße finden und Unfälle verursachen, ist die Zukunft des autonomen Fahrens gefährdet. Denn jeder Unfall schafft Misstrauen in eine Technologie, die eigentlich Leben retten soll. Ein TÜV für Algorithmen dient also nicht nur der Sicherheit aller, sondern auch dem Wirtschaftsstandort Deutschland.

Don Dahlmann ist seit über 25 Jahren Journalist und seit über zehn Jahren in der Automobilbranche unterwegs. Jeden Montag lest Ihr hier seine Kolumne „Drehmoment“, die einen kritischen Blick auf die Mobility-Branche wirft.

Bild: Daimler AG