KI hinter Gittern: So funktioniert Rechtsprechung in Sachen Künstlicher Intelligenz nicht.
Ein intelligenter Roboter hinter Gittern – das kann heutzutage nicht passieren. Intelligente Systeme können noch nicht verurteilt werden. 

Künstliche Intelligenzen können Steuererklärungen erstellen, Verträge auf rechtliche Probleme prüfen und Lungenkrebs diagnostizieren – und das teilweise besser als Menschen. Was Künstliche Intelligenzen (KI) nicht können: Für Fehler – eine falsche Diagnose etwa – zur Rechenschaft gezogen werden. Eine Technologie kann nunmal keinen Schadensersatz zahlen und schon gar nicht ins Gefängnis gesperrt werden.

Die Frage nach der Haftung ist aber nicht die einzige, die beim Thema KI eine Rolle spielt, sagt Rechtsanwalt Torsten Kraul. Der Münchner Jurist hat sich auf Unternehmen spezialisiert, die Rechtsberatung in den Bereichen Internet der Dinge, Blockchain, Software-as-a-Service oder KI benötigen. Er hat uns die aktuelle Rechtslage zu Künstlicher Intelligenz erläutert.

Darf eine Künstliche Intelligenz Verträge abschließen?

Nehmen wir an, eine intelligente Fertigungsmaschine ist darauf trainiert, ein bestimmtes Material nachzubestellen, wenn es ausgeht. Weil das System nunmal intelligent ist, kann und soll es selbst ermitteln, welche Materialmenge notwendig ist. Nun bestellt diese Maschine auf Basis ihrer Berechnungen vier Tonnen Holz und der Holzlieferant liefert. Was die Maschine nicht weiß: Das Unternehmen, in dem sie steht, hat gerade keinen Platz für vier Tonnen Holz. Was nun?

„Hier stehen wir zunächst vor der Frage, ob die Bestellung überhaupt wirksam ist“, sagt Kraul. „Verträge schließen eigentlich Menschen. Ist nun ein Vertrag, den ein autonomes System schließt, als solcher anzuerkennen?“ Grundsätzlich: Ja. Denn bisher gilt, so Kraul, dass derjenige, der die Maschine einsetzt, verantwortlich für deren Erklärungen ist.

In Zukunft könnte sich das ändern. „Diese Herangehensweise wird kritischer, je weiter sich die Ergebnisse einer von einer KI abgegeben Erklärung von der möglichen Beherrschbarkeit des Betreibers entfernen.“ Je mehr sich Künstliche Intelligenzen also verselbstständigen, desto fraglicher ist es, ihren Betreiber für deren Verhalten in die Verantwortung zu ziehen. Das EU-Parlament schlug zur Lösung dieses Problems vor, Künstliche Intelligenzen als „E-Personen“ einzustufen. „Zumindest für die ausgeklügeltsten autonomen Roboter“ solle „ein Status als elektronische Person“ festgelegt werden, heißt es in einem Bericht des Parlaments. Die E-Person solle in Fällen zum Einsatz kommen, „in denen Roboter eigenständige Entscheidungen treffen oder anderweitig auf unabhängige Weise mit Dritten interagieren“.

Wer haftet, wenn eine KI einen Fehler macht?

Auch, wenn durch Künstliche Intelligenzen Schäden eintreten, wäre die Einführung elektronischer Personen sinnvoll, heißt es im EU-Bericht weiter. Sie wären demnach „für den Ausgleich sämtlicher von ihr verursachten Schäden verantwortlich“. Noch haben Künstliche Intelligenzen aber keine elektronische Persönlichkeit. 

Rechtsanwalt Torsten Kraul
Rechtsanwalt Torsten Kraul

Wenn beim Einsatz eines Produkts mit Künstlicher Intelligenz Schäden entstehen, gilt derzeit: Sofern der Betreiber das System ordnungsgemäß eingesetzt und gewartet hat, haftet er grundsätzlich nicht. „Das ist aber für die Zukunft der KI nicht die ideale Lösung“, sagt Kraul. „Stellen wir uns ein medizinisches System vor, das auf Grundlage wissenschaftlicher Erkenntnisse Diagnosen stellt. Wenn dieses System einen Fehler macht, der dem Patienten schadet, kann der Arzt einfach sagen „Ich habe das System ordnungsgemäß eingesetzt“ – und der Patient steht im Regen.“ Heißt: Schadensersatz wird der Betroffene nicht bekommen.

Kann das wirklich sein – niemand haftet für einen Schaden, den eine KI verursacht hat? Ja, es kann, erklärt Kraul. „Unser System des Haftungsrechts basiert auf dem Verschuldensprinzip.“ Das bedeutet, ein Mensch haftet, wenn ihm vorzuwerfen ist, dass er vorsätzlich oder fahrlässig gehandelt hat. „Wenn einem Menschen weder Vorsatz noch Fahrlässigkeit vorwerfbar sind, kann es sein, dass der schwerste Schaden entsteht und trotzdem niemand haftet“, sagt Kraul. So ein Schaden falle dann in die Kategorie „allgemeines Lebensrisiko“. Ein klassisches Beispiel hierfür sind Schäden, die von der Natur verursacht werden, etwa, wenn bei einer Gebirgswanderung ein Felsbrocken abbricht und den Wanderer verletzt. Das ist ein grundsätzlich allgemeines Lebensrisiko, niemand haftet dafür.

Sonderfall autonome Fahrzeuge

Weil Unfälle mit intelligenten Autos schon häufiger aufgetreten sind, ist die Rechtslage hier konkreter. Wenn ein autonomes Fahrzeug jemandem Schaden zufügt, kommt grundsätzlich die KFZ-Versicherung des Fahrzeughalters für den Schaden auf. Nur, wenn der Schaden, den das Auto verursacht hat, auf einen Mangel am Fahrzeug – etwa einen Softwarefehler – zurückzuführen ist, haftet der Hersteller.

Betreiber einer KI als „Erziehungsberechtigter“? 

Vorschläge für einen besseren Umgang mit Schäden, die durch KI entstehen, gebe es viele, sagt Kraul. „Man könnte sich vorstellen, dass der Betreiber wie ein Erziehungsberechtigter oder wie der Halter eines Tieres für das System haftet“, beschreibt er. Oder, dass derjenige, der ein intelligentes System einsetzt, davon ausgehen muss, dass dabei Schäden entstehen können – und deswegen unabhängig von Verschulden haftet, wenn etwas passiert. Noch gibt es diese sogenannte „allgemeine Gefährdungshaftung“ beim Einsatz Künstlicher Intelligenz aber nicht. 

All dem, sagt Kraul, liege eine Frage zugrunde: Wie stellen wir uns als Gesellschaft dem Phänomen KI? „Wollen wir KI oder nicht? Wenn wir sie wollen, müssen wir Rahmenbedingungen dafür schaffen, dass sie auch eingesetzt werden kann.“

Bild: Getty Images / Donald Iain Smith, Bild im Text: Torsten Kraul