Die Mehrheit der Menschen in Deutschland würde nicht in ein Smarthome ziehen, in dem KI den Menschen unterstützt – selbst nicht, wenn es kostenlos wäre.

Die Szenarien können der Industrie gar nicht weit genug gehen. Smarte Häuser und Wohnungen sollen sich in Zukunft an die Bewohner anpassen und ihre Gewohnheiten lernen. Entsprechend kontrollieren sie automatisch das Licht, regeln die Temperatur und wissen sogar, welche Lebensmittel nachgekauft werden müssen. Allerdings gibt es dabei ein Problem: Die meisten Deutschen wollen das gar nicht.

Das zumindest ist das Ergebnis einer repräsentativen Studie des Marktforschers Ipsos im Auftrag des Tüv-Verbandes (Vdtüv). Die Umfrage unter 1.000 Personen ab 16 Jahren dürfte vielen Herstellern die Augen öffnen. Denn 57 Prozent der Menschen in Deutschland würden nicht in ein Smarthome ziehen, in dem Künstliche Intelligenz die Menschen unterstützt – selbst dann nicht, wenn dies kostenlos möglich wäre.

Für die Zurückhaltung geben die Befragten gleich eine ganze Reihe von Gründen an. Doch die Angst vor dem Verlust persönlicher Autonomie ist davon der wichtigste. Fast die Hälfte der Menschen würden Entscheidungen der Künstlichen Intelligenz (KI) befürchten, die sie persönlich nicht gutheißen würden. Fast genauso viele Menschen hätten die Sorge, dass ihre persönlichen Daten unrechtmäßig verwendet würden.

Kann KI den richtigen Therapieansatz identifizieren?

Immerhin sehen 44 Prozent der Befragten die Gefahr, sich zu sehr von der Technik abhängig zu machen. Und 38 Prozent nennen das Gefühl der Machtlosigkeit gegenüber einer KI als Grund für ihre Abneigung. Jeder Dritte sorgt sich vor Hackerangriffen.

Die Skepsis gegenüber der KI gilt aber nicht nur ihrem Einsatz zu Hause. Auch in anderen Bereichen sind die Befragten kritisch. Das betrifft auch die Medizin, obwohl Forscher gerade dort große Fortschritte beim Einsatz von KI sehen. Zuletzt hatte Google Health gemeinsam mit der Northwestern University und dem Royal Surrey County Hospital in einer Studie nachgewiesen, dass eine KI auf Röntgenbildern Brustkrebs genauer identifizieren kann als Radiologen.

Trotzdem vertraut der Tüv-Umfrage zufolge nur jeder Vierte einer KI, wenn es darum geht, den richtigen Therapieansatz zu wählen. Ärzte hingegen können das Vertrauen von fast 80 Prozent der Befragten gewinnen. Nimmt ein Arzt bei seiner Arbeit jedoch eine KI zu Hilfe, sinkt das Vertrauen um 20 Prozentpunkte.

Lest auch

Auch bei der Personalauswahl würden sich nur wenige auf eine KI verlassen wollen, obwohl gerade hier viele Unternehmen immer wieder mit Vorurteilen bei der Beurteilung von Bewerbern zu kämpfen haben, die von Menschen ausgehen. Nur gut jeder Fünfte würde bei der richtigen Auswahl eines Bewerbers einer KI vertrauen. Zwei Drittel würden eher auf die Personalabteilung hören. Doch den absoluten Maßstab sehen die Befragten bei sich selbst. Mehr als drei Viertel von ihnen würden sich selbst bei der Personalauswahl am meisten vertrauen.

Offenbar hat es sich herumgesprochen, dass die KI nicht perfekt sein kann. Und so würden die meisten Befragten der KI auch mal einen Fehler zugestehen, wenn das Risiko nicht allzu hoch ist. Allerdings sind mehr als ein Drittel der Meinung, dass KI-Anwendungen immer fehlerfrei sein sollten – unabhängig vom Risiko.

Im Straßenverkehr ist diese Toleranz jedoch dahin. Insbesondere bei autonom fahrenden Autos wird die KI eine große Rolle spielen. Und hier sind 84 Prozent der Befragten der Meinung, dass KI-Systeme in autonomen Fahrzeugen absolut fehlerfrei arbeiten müssen.

Weniger einig sind sich die Befragten, wenn es darum geht, bei einem Unfall eines autonomen Fahrzeugs die Verantwortlichen auszumachen. Gut jeder Fünfte würde den Hersteller des Fahrzeugs verantwortlich machen. Fast genauso viele sehen die Verantwortung jedoch beim Programmierer der KI. 14 Prozent sehen den Nutzer verantwortlich, jeder Zehnte nennt hier sogar die KI selbst. Und jeder Vierte sieht die Verantwortung bei allen Beteiligten gemeinsam.

„Keinen Zweifel daran, dass KI reguliert werden muss“

Vor diesem Hintergrund ist die Diskussion über KI-Regeln längst im Gange. EU-Kommissionspräsidentin Ursula von der Leyen arbeitet nach eigenen Angaben bereits an Rechtsvorschriften und an einem Konzept für die „menschlichen und ethischen Aspekte der Künstlichen Intelligenz“. Sogar der Chef der Google-Mutter Alphabet, Sandar Pinchai, hat sich für solche Gesetze ausgesprochen. „Ich habe keinen Zweifel daran, dass Künstliche Intelligenz reguliert werden muss“, schrieb Sundar Pichai in einem Gastbeitrag für die „Financial Times“.

6 Mythen über Künstliche Intelligenz

Wie die Umfrage des Tüv-Verbandes außerdem zeigt, fordern die Deutschen mehr Transparenz und Sicherheit beim Einsatz von KI. 85 Prozent der Befragten wollen, dass Anwendungen und Produkte mit KI klar gekennzeichnet und von unabhängigen Stellen überprüft werden.

Hier sehen die Tüv-Gesellschaften als Technische Überwachungsvereine ein eigenes Betätigungsfeld. „Beim Einsatz von Künstlicher Intelligenz in sicherheitskritischen Bereichen gibt es erhebliche Regelungslücken“, sagt Michael Fübi, Präsident des Tüv-Verbands (Vdtüv). Immer dann, wenn Gefahren für die Gesundheit von Menschen oder deren elementare Grundrechte bestünden, seien klare Leitlinien für die Anbieter, Entwickler und Nutzer von KI-Anwendungen notwendig.

Hierfür müssten KI-Anwendungen aber in verschiedene Risikoklassen eingeordnet werden und könnten in Abhängigkeit vom Risiko dann zugelassen, überprüft oder sogar laufend überwacht werden. „Natürlich müssen wir darauf achten, dass die Regulierung nicht übers Ziel hinausschießt und Innovationen bremst“, sagt Verbandspräsident Fübi. Auch Alphabet-Chef Pichai rät zur Verhältnismäßigkeit von Vorschriften. „Gesetze können Grundregeln aufstellen, die in verschiedenen Sektoren verschieden umgesetzt werden können.“ Tatsächlich sind auch mehr als drei Viertel der Befragten in der Tüv-Umfrage der Meinung, dass der Staat Gesetze und Vorschriften zur Regulierung von KI verabschieden sollte.

Viele Firmen haben gerade erst begonnen, sich damit zu beschäftigen

Offenbar hat die öffentliche Diskussion über die KI aber noch nicht dazu geführt, dass Unternehmen und Hersteller für sich entsprechende Regeln aufgestellt haben. Nach einer Umfrage der Technologieberatung Bearingpoint unter 600 Unternehmensvertretern gibt es nur in fünf Prozent der Fälle abgestimmte Richtlinien und Maßnahmen für den ethischen Umgang mit KI. Fast die Hälfte hat gar keine Richtlinien und Maßnahmen.

Dabei ist der ethische Anspruch im Grunde hoch. So sind von den Unternehmensvertretern fast drei Viertel der Meinung, dass ein KI-Algorithmus und die Datengrundlage nicht zu Diskriminierung führen dürfen. „Das Thema KI ist in vielen Unternehmen noch jung“, sagt Theodor Schabicki, Partner bei Bearingpoint und Experte für das Thema KI. „Deshalb ist die Lücke zwischen theoretischem Anspruch und Realität, wenn es um KI und Ethik geht, noch groß.“

Lest auch

Dieser Artikel erschien zuerst bei Welt.de.

Bild: Getty Images / Westend61