Google-Chef Sundar Pichai bei der I/O Developers Conference

Wie sieht die ideale Google-Suche aus? Seit dem Beginn der Smartphone-Revolution 2007 müssen sich Google-Entwickler der Frage stellen, wie sie Googles Suchergebnisse abseits des klassischen Browserfensters auf dem PC darstellen können. Die neueste Antwort darauf zeigte Google-Chef Sundar Pichai am Mittwoch in Mountain View zum Start der Google-Entwicklerkonferenz I/O 2016. „Google Assistent“ heißt die Weiterentwicklung von Googles mobilem Suchwerkzeug „Now“, die komplett auf Spracherkennung per künstlicher Intelligenz basiert.

Die Idee: Künftig sollen Google-Suche und Services nicht mehr per Tastatur bedient werden – stattdessen sollen sich die Nutzer mit Google unterhalten. Bereits jetzt ist der Konzern führend im Bereich der Spracherkennung, etwa 20 Prozent aller Google-Suchanfragen werden laut Pichai aktuell per Spracheingabe abgeschickt. „Der Google Assistent bringt die Sprachsuche auf eine neue Ebene“, erklärte Pichai und demonstrierte live, was das bedeutet.

Der Assistent versteht im Gespräch Kontext und Rückbezüge, er hat ein funktionierendes Kurzzeitgedächtnis. Stellt ein Nutzer eine Frage, in der er sich indirekt auf vergangene Gespräche bezieht, versteht ihn das System dennoch. „Der Assistent lernt mit jedem Gespräch dazu – und jeder Nutzer baut mit jeder neuen Anfrage sein persönliches Google“, erklärte Pichai. Sollte die Funktion nicht nur in der Demo, sondern auch im späteren Produkt funktionieren, würde sich der Assistent entscheidend von Konkurrenzprodukten wie Apples Siri-Spracherkennung absetzen können.

Neuer Messenger „Allo“ soll WhatsApp Konkurrenz machen

Der neue Assistent soll künftig nicht nur in einer Such-App auf Smartphones laufen, sondern den Nutzer überall im Alltag begleiten – deswegen stellte Google als erstes neues Produkt einen drahtlosen Lautsprecher mit Mikrofon namens „Home“ vor. Pichai gab bei der Vorstellung zu, dass Konkurrent Amazon mit seinen vergleichbaren Echo-Lautsprechern samt dem digitalen Assistenten „Alexa“ Pionierarbeit geleistet hat. Doch „Home“ soll in seiner Rolle als digitaler Alltagsassistent viel hilfreicher sein als „Alexa“, da das System Informationen aus weiteren Google-Diensten wie dem Mail-Dienst Gmail oder der Online-Navigation Maps nutzen soll.

In einer Videodemo zeigte Pichai, wie „Home“ künftig den Alltag einer ganzen Familie organisiert, nahtlos die Rollen zwischen Kurznachrichtendienst, Terminplaner, Musikdienst, Navigationshilfe für die Fahrt zur Schule und Hausaufgabenhilfe wechselt. Zudem soll „Home“ auch auf alle weiteren Geräte auf Android-Basis zugreifen – und etwa automatisch Bilder auf dem Android-Fernseher zeigen oder Navigationsdaten auf das Smartphone weiterschicken.

Die erste Mobil-Anwendung mit integriertem Assistenten stellte Pichai ebenfalls vor: Mit dem Kurznachrichtendienst „Allo“ präsentierte Google in San Francisco eine neue Messaging-App, die in direkter Konkurrenz zu Facebooks Whatsapp treten könnte.

Lest auch

Im Chat liest Googles Assistent die Antworten des Gegenübers direkt mit und macht intelligente Antwortvorschläge. Nicht nur vorprogrammierte Sätze soll „Allo“ dank der künstlichen Intelligenz hinter dem Assistenten vorschlagen, sondern sinnvolle Antworten im Kontext der gesamten Unterhaltung. Sogar auf Bilder soll „Allo“ die passende Antwort parat halten, denn Googles Bilderkennung auf Basis künstlicher Intelligenz ist ebenfalls eingebaut. „Allo“ soll in den kommenden Monaten für Android und iPhone herauskommen, der smarte Lautsprecher „Home“ bis Ende des Jahres auf dem Markt sein.

Alle drei Produkte – „Google Assistent“, „Allo“ und „Home“ – beweisen, dass Google seine Zukunft komplett in der Integration von künstlicher Intelligenz in den Alltag seiner Nutzer sieht. Nicht mehr viele Einzeldienste, sondern eine einzige Funktion hinter der Maske von verschiedenen Apps begleitet künftig die Google-Nutzer.

Google will seine Nutzer nicht überfordern

Seit Jahren forscht der Konzern an Spracherkennung, Bilderkennung, Übersetzungs- und Kontext-Algorithmen auf Basis von selbstlernenden neuronalen Netzen. Doch bislang zeigte der Konzern immer nur Schnipsel der Technologie im Alltagseinsatz – im Übersetzungsprogramm Translator, in der Suchapp „Now“, in der Foto-Suche, in Gmail oder Maps. Teils wirkten die bisherigen Apps jedoch so, als würde Google bewusst Funktionen zurückhalten und die vollständige Verknüpfung aller Dienste hinter dem Berg halten.

Im vergangenen November gab Googles Chefentwicklerin für den digitalen Assistenten, Aparna Chennapragada, im Gespräch mit der Welt zu, man wolle die Nutzer vorerst nicht verschrecken: „Wir müssen das Gleichgewicht zwischen hilfreich und unheimlich, zwischen Datennutzung und Datenschutz finden. Schlussendlich sollte im Detail immer der Nutzer entscheiden können, wie weit er ‚Now‘ vertraut“, erklärte sie damals.

Der heute vorgestellte Assistent ist das erste Google-Produkt, in dem viele Fähigkeiten von Googles künstlicher Intelligenz voll eingebracht werden und künftig weitere eingebracht werden können – ohne ein bewusst knapp gehaltenes digitales Kurzzeitgedächtnis oder Einschränkungen bei der Kombination von Daten. Beeindruckend, doch auch beängstigend kann das für Nutzer sein.

Die Chat-App „Allo“ und der Lautsprecher „Home“ dürften nur die ersten Anwendungsbeispiele sein. Prinzipiell lässt sich der Assistent als Basis einer neuen Google-Suche überall dort integrieren, wo Google auch bisher schon seine Suchfelder einbaut – in Gmail, in der Navigation, in Googles Office-Dienst Docs oder in YouTube. Dabei wird sich zeigen, ob Google damit einen Teil seiner Nutzer überfordert – und wo der Datenschutz der künstlichen Intelligenz Grenzen vorgibt.

Hier seht Ihr die Keynote:

Dieser Text erschien zuerst in der Welt.

Bild: Gettyimages/Justin Sullivan