Glenn Gore, Global Chief Architect, Amazon Web Services
„Wir haben gerade begonnen zu verstehen, was mit KI möglich ist“, sagt Glenn Gore von Amazon.

Glenn Gore ist Chief Architect bei Amazon Web Services (AWS), dem Cloud-Computing-Geschäft von Amazon, mit einem Jahresergebnis von 24 Milliarden US-Dollar einer der schnellstwachsenden Enterprise-IT-Anbieter. Viele Startups speichern ihre Daten in der Amazon Cloud, etwa Flixbus, Mytaxi, Soundcloud oder Zalando. Gründerszene sprach mit Gore über die Potenziale, die in Künstlicher Intelligenz stecken.

Wie die anderen Internetriesen auch nutzt Amazon Intelligenz an verschiedenen Stellen: Die wohl bekanntesten sind die Empfehlungs-Engine auf der Handelsplattform Amazon.de. Kunden, die Produkt X kauften, interessierten sich auch für Y und Z, heißt es dort. Auch intern kommt bei Amazon KI zum Einsatz: etwa bei der Wegeoptimierung in Fulfillment-Zentren der bei der Ende 2013 gelaunchten Unternehmenssparte Prime Air, die eine Paketzustellung mit Flugdrohnen ermöglichen soll.

Künstliche Intelligenz ist für Amazon aber auch ein eigenes Geschäftsmodell. Das Unternehmen hat ein ganzes Bündel von Software-Dienstleistungen entwickelt, die Unternehmen dabei helfen, ihren Kunden einen besseren Service anzubieten. Häufig beginnt das damit, den Kunden besser zu verstehen. 

Lest auch

Sprach-Bots sprechen mit Kunden

Da gibt es zum Beispiel Amazon Lex. Das Programm versteht Sprache und ihren Kontext und konvertiert sie in Text. Programmierer können Sprach-Bots entwickeln, die auf realistische Weise Konversation betreiben können.

Und es gibt Rekognition, „ein Service, der Bilder verstehen kann. Er erkennt, ob jemand glücklich oder frustriert, wütend oder gelangweilt ist“, erklärt Gore. Die Software lernt, indem sie sich Hunderttausende Bilder ansieht und dabei Muster erkennt. Amazon Rekognition bietet auch hochpräzise Gesichtsanalyse und -erkennung für Bilder und Videos. Sie kommt zum Einsatz bei der Benutzerverifizierung, zum Zählen von Personen und im Rahmen der öffentlichen Sicherheit.

Verlage haben 100 Jahre alte Fotoarchive und können mit Rekognition verstehen, was auf ihren Fotos abgebildet ist. Man kann semantische Suchen starten, etwa alle Bilder zeigen, mit einer glücklichen Frau und einem Hund. „Das ist auch für Startups interessant. Rekognition schafft einen vollkommen neuen Level von Inhalten. Wir befinden uns da in den frühen Tagen“, sagt Gore.

Polly, ein weiteres KI-Tool von Amazon, „gibt einen geschriebenen Text in Sprache aus“, sagt Gore. Das hat ein großes Potenzial beispielsweise für Verlage, die riesige Mengen an Textinhalten besitzen, die man als Audio in Stories oder Podcasts oder neuen Formaten einbauen kann. Mit Hilfe von Deep-Learning-Technologien wird Sprache synthetisiert. Die Stimme betont gemäß der Grammatik. „Es hört sich ganz anders an als früher diese computergenerierten Stimmen, die einen Text Wort für Wort gesprochen haben“, sagt Gore. Polly ist in mehr als 25 Sprachen und in etwa doppelt so vielen Stimmen erhältlich.

Die Technologie Alexa kommt seit 2014 in den Echo-Geräten zum Einsatz. Sie wurde seitdem immer weiterentwickelt. „Inzwischen sind wir so weit, dass jeder seine eigene Sprachausgabe bauen kann. Wenn wir noch drei Jahre weiter denken, dann wird die Stimme Emotionen ausdrücken können und Charakteristiken haben, die eine sehr natürliche Interaktion ermöglichen“, sagt Gore.

Die New York Times zum Beispiel hat das. „Ich kann Alexa fragen, was gerade in Deutschland passiert und sie auffordern, die drei wichtigsten Geschichten des Tages vorzulesen. Das ist eine Chance für Medienunternehmen, ihre Inhalte individuell anzupassen“, erläutert der Experte einen Anwendungsfall.

Lest auch

Bei den drei Programmen Polly, Lex und Recognition ist es nicht geblieben. Inzwischen brachte Amazon die Plattform SageMaker auf den Markt, die es Entwicklern und Datenwissenschaftlern ermöglicht, schnell und einfach Machine-Learning-Modelle zu erstellen, zu trainieren und zu implementieren. Amazon Transcribe ist ein automatischer Spracherkennungsservice, der sich zum Beispiel zur Transkription von Anrufen beim Kundenservice eignet. Die Plattform Translate nutzt Deep-Learning-Modelle zum Übersetzen von Texten. Das Ziel sind bessere Texte als sie mit regelbasierten Übersetzungsalgorithmen erzeugt werden können. Die Plattform eignet sich zum Beispiel für die mehrsprachige Stimmungsanalyse von Social-Media- oder anderen benutzergenerierten Inhalten. Der Service Comprehend findet Textzusammenhänge und kann erkennen, wie positiv oder negativ zum Beispiel eine Kundenrezension ist. DeepLens macht Programmierern das Erlernen des maschinellen Lernens leichter. Dabei handelt es ich um eine lernfähige Videokamera. 

Amazon erforscht die künstliche Intelligenz auch in Deutschland. Zusammen mit der Max-Planck-Gesellschaft wurde dazu vor knapp einem Jahr eine strategische Zusammenarbeit vereinbart. Amazon kündigte an, ein Forschungszentrum nahe dem Campus des Max-Planck-Instituts für Intelligente Systeme in Tübingen einzurichten, 1,25 Millionen Euro in die Tech-Initiative Cyber Valley zu investieren und in den nächsten fünf Jahren 100 Stellen zu schaffen. Zu den Initiatoren der Initiative gehören neben dem Max-Planck-Institut für Intelligente Systeme das Land Baden-Württemberg, die Universitäten Stuttgart und Tübingen sowie die Unternehmen BMW, Bosch, IAV, Daimler, Porsche und ZF Friedrichshafen.

Künstliche Intelligenz wird in der Zukunft alle Lebensbereiche verändern – was wir einkaufen, wie wir uns unterhalten oder informieren. „Die Art, wie wir mit Medien interagieren, unterscheidet sich komplett zur Situation, wenn wir vor einem Bildschirm sitzen“, sagt Gore. „Ich kann diese Unterhaltung führen, während ich etwas anderes mache. Künstliche Intelligenz verändert die Art, wie wir mit Technologie in Verbindung treten. Das Faszinierende ist, dass wir gerade begonnen haben zu verstehen, was da möglich ist.“

Bild: Jürgen Stüber