Herrlich! Es gibt sie noch. Diese kurzen Momente auf langen Konferenzen, die plötzlich aufmerken lassen. Auf einem Panel bei der hub.berlin zum Thema künstliche Intelligenz meldete sich Toby Walsh, Professor für AI in Sydney, zu Wort – und wurde ziemlich deutlich: „Elon Musk ist ein fantastischer Ingenieur. Er sollte Teslas bauen und Raketen, die den Mars erreichen. Aber von AI (Artificial Intelligence) versteht er nichts.“ Ja, da war doch was. Elon Musk hatte sich zuletzt häufiger per Twitter zu den Entwicklungen im Bereich künstlicher Intelligenz geäußert. Für einen Zukunftspropheten erstaunlich pessimistisch. Zu Beispiel so:

Und so:

Oder so:

Ein Mahner? Wirklich? Ausgerechnet Musk, der Tunnel für Autos unter den Großstädten bohren will, Menschen durch luftleere Röhren und wiederverwertbare Raketen zum Mars schießen möchte? Walsh ist jedenfalls mehr als skeptisch, was die Warnungen von Musk angeht: „Er ist mit seinen Tweets gefährlicher als der Präsident. Denn die Leute verstehen AI nicht. Die Technologie kann für Gutes und Böses genutzt werden.“ So ganz wohl ist dem Professor also auch nicht. Auch wenn er Musks Standpunkt für maßlos übertrieben hält. Er hätte da ein paar konkrete Anliegen, die sich gar nicht so dramatisch von den Befürchtungen Musks unterscheiden.

Da wären zum Beispiel automatische und intelligente Waffen der Zukunft. Walsh: „Automatische Waffen müssen gebannt werden. Das ist viel zu gefährlich. Um Gewalt auszuüben, brauchte man früher eine ganze Armee. Jetzt kann eine einzelne Person eine ganze Armee aus automatischen, autonomen Waffen befehlen und kontrollieren. Die kämpfen 24 Stunden am Tag. Menschen können sich gegen sie überhaupt nicht verteidigen.“

„AI-Applikationen sollten sich an menschliche Werte halten“

Für alle anstehenden Entscheidungen in Sachen künstlicher Intelligenz hat Walsh deshalb eine Regel aufgestellt: „AI-Applikationen müssen sich an menschliche Werte halten.“ Fragt sich nur, ob das möglich ist. Denn an der Produktion von Maschinen mit künstlicher Intelligenz sind derzeit unzählige Firmen in unzähligen Ländern beteiligt. Die haben nicht immer die gleiche Vorstellung von menschlichen Werten.

Die weltweite Ächtung der chemischen Waffen zeigt, dass man sich durchaus länderübergreifend auf gemeinsame Werte einigen kann. Allerdings wird diese gemeinsame Vereinbarung immer wieder durchbrochen. Walsh unterstrich trotzdem die Dringlichkeit der Angelegenheit: „Wir stehen kurz davor, dass Computer über Leben und Tod entscheiden. China, Israel und die USA brauchen nicht mehr viel Zeit für diese Entwicklung. Es liegt an uns, wie wir entscheiden.“

„Es liegt an uns. Es ist unsere Entscheidung“

Interessant ist, dass es offenbar nicht nur in Deutschland ziemlich grundsätzlich wird, wenn über künstliche Intelligenz diskutiert wird. Man könnte ja auch darüber sprechen, wie sich die Kunst, die Musik verändern wird, wenn sie mit AI in Berührung kommt. Oder wie man die Landwirtschaft optimieren kann, ohne noch mehr Gifte einzusetzen. Es unendlich viele Möglichkeiten. Aber als erstes wird gerne darüber gesprochen, wie sich ein selbstfahrendes Auto im schlimmsten anzunehmenden Fall verhalten soll. Nämlich dann, wenn ein Todesopfer nicht mehr zu vermeiden ist. Oder es wird darüber diskutiert, was passieren würde, wenn wir tödliche Waffen haben, die nur noch von Computern gesteuert würden.

Professor Walsh hat darauf eine ganz einfache Antwort: „Es liegt an uns. Es ist unsere Entscheidung.“ Wir Menschen entscheiden, wie künstliche Intelligenz aussehen wird und wie sie eingesetzt wird. Vielleicht ist es ganz gut, dass Elon Musk mit seinen Tweets immer wieder darauf hinweist, dass es gerade um sehr viel geht. Das müsste eigentlich auch Walsh gefallen.

Bevor uns die Roboter-Armee in die ewigen Jagdgründe schickt, bleibt gerade noch etwas Zeit, um die beste unbekannte Pop-Band Deutschlands zu hören. Riviera haben gerade ihr neues Album „Endymion“ veröffentlich. Hier das Video zur Single Cortisone Shot:

Foto: Screenshot / Riviera / Youtube

MerkenMerken

MerkenMerken

MerkenMerken

MerkenMerken