Lade Premium-Inhalte...

Künstliche neuronale Netze – ein Anwendungsfall von Maschinellem Lernen, einem Teilbereich der KI – sind den Verbindungen der Neuronen im menschlichen Gehirn nachempfunden.

Künstliche Intelligenz (KI, engl. Artificial Intelligence, AI) ist ein bis heute nur schwammig definierter Begriff, der ein Teilgebiet der Informatik beschreibt. Ein Schachcomputer etwa wird in seiner Domäne häufig als „intelligent“ bezeichnet – auch wenn dafür keine Techniken aus dem Bereich der Künstlichen Intelligenz (wie „Maschinelles Lernen“ oder „Neuronale Netze“) zum Einsatz kommen müssen.

Ziel von KI ist es, sich mittels Computer-Algorithmen, dem „intelligenten“ Verhalten eines Menschen zumindest anzunähern oder es zu ergänzen. Dabei ist KI keinesfalls ein neues Phänomen: Wissenschaftler versuchen seit Jahrzehnten, die menschliche Wahrnehmung und Informationsverarbeitung durch Maschinen derart nachzubilden, dass sich Computer in der Welt zurechtfinden und mit ihrer Umgebung interagieren.

KIs sind aufgrund der heutigen Rechenleistung von Computern zwar häufig extrem schnell, etwa in der Bilderkennung, können dem Menschen in Sachen Lernerfolg aber noch nicht das Wasser reichen. So brauchen beispielsweise Roboter Tage, um Greifübungen mittels KI selbstständig zu lernen.

Schwache KI

Schwache KIs sollen den Menschen bei spezifischen Aufgaben unterstützen. Dazu zählen etwa Sprachassistenzsysteme wie Siri, Korrekturvorschläge in Suchmaschinen oder der E-Mail-Spamfilter. Ein besonders populäres Beispiel für eine schwache KI ist der Schachcomputer „Deep Blue“ von IBM, der 1997 als erster Computer überhaupt einen amtierenden Schachweltmeister unter Turnierbedingungen schlug. Zwar kann eine schwache KI Muster aus Erfahrenem ableiten und damit neuartige Probleme lösen. Diese Kompetenz beschränkt sich aber auf ein Gebiet.

Sie kann ihre Kenntnisse und Fähigkeiten also nicht abstrahieren wie ein Mensch, der beispielsweise nur wenige Katzen sehen muss, um danach auch Meerschweinchen oder Elefanten als Tiere zu begreifen. Gewissermaßen handelt es sich bei schwachen KIs also um „Fachidioten“, die zwar Schach beherrschen oder Gesichter in Videos erkennen, sich aber gleichzeitig nicht zu Daten der Weltgeschichte äußern können. Sie kratzen sozusagen nur an der Oberfläche und sind nicht in der Lage, ein tiefergehendes „Verständnis“ für ein Problem aufzubringen. Alle KIs, die bislang verfügbar sind, gelten als schwach.

Starke KI

Im Gegensatz zur rein reaktiven, schwachen KI ist die starke KI dazu imstande, aus eigenem Antrieb zu handeln. Wie der Mensch kann sie logisch denken, Entscheidungen treffen, planen und lernen. Sie beherrscht die natürliche Sprache und kann alle genannten Fähigkeiten bei Bedarf kombiniert anwenden, um ein übergeordnetes Ziel zu erreichen. Wissenschaftler sind sich uneins darüber, ob eine mit ihrer Umwelt gänzlich autonom agierende KI tatsächlich existieren kann.

Der Chef des Deutschen Forschungszentrums für Künstliche Intelligenz, Wolfgang Wahlster, rechnet frühestens in 50 bis 100 Jahren mit Robotern, die uns „in allen Dimensionen der Intelligenz auf gleiche Augenhöhe kommen werden“. Eine KI, deren Intellekt den des Menschen übertrifft, wird als sogenannte Super-KI bezeichnet. Der Computer „Hal“ in Stanley Kubricks Science-Fiction-Streifen „Odyssee im Weltraum“ ist ein Beispiel dafür. Ob ein solcher Überflieger über ein Bewusstsein in unserem Sinne verfügen kann, wie in vielen Filmen angedeutet, ist ebenfalls umstritten.

Algorithmus

Eine von einem Computer ausführbare Anweisung zur Lösung eines Problems nennen Informatiker einen Algorithmus. Er bestimmt den Weg, den das Programm für die Lösung gehen muss. Ein Beispiel ist die Bilderkennungssoftware: Einer Software werden große Mengen an Bildinformationen eines Gegenstandes zur Verfügung gestellt. Das Programm ordnet die Pixel des Bildes in bestimmte Muster ein. Anhand dieser Muster wird die Software künftig diesen Gegenstand auf anderen Bildern wiedererkennen. Dieser Ablauf ist immer gleich. Algorithmen sind die Grundlage von Künstlichen Intelligenzen.
  

Was Startups in Sachen KI besonders beachten müssen, welche Rolle Sprachtechnologien spielen und wie man die Qualität der Daten sicherstellen kann – mehr gibt’s in unserem KI-Report:

Turing-Test

Der britische Informatiker und Mathematiker Alan Turing entwickelte das nach ihm benannte Testverfahren im Jahr 1950. Mithilfe des Turing-Tests lassen sich „starke KIs“ identifizieren. Er ermittelt, ob ein Programm dazu in der Lage ist, menschliche Intelligenz so gut zu imitieren, dass ein Interviewer glaubt, bei seinem Gegenüber handele es sich tatsächlich um einen anderen Menschen. Erst wenn eine ausreichende Zahl Interviewer in einer vergleichenden Versuchsanordnung glaubt, mit einem Menschen interagiert zu haben, gilt der Test als bestanden. Das ist bis heute aber noch keinem Programm gelungen.  

Machine Learning

Unter Maschinellem Lernen (engl. Machine Learning, ML) wird ein Teilbereich der Künstlichen Intelligenz verstanden. Dabei werden Algorithmen eingesetzt, um große Datenmengen (sogenannte Trainingsdaten) zu analysieren und selbstständig aus ihnen zu lernen. Dass ein Bild mit Katzenmotiv eine Katze zeigt, lernt ein entsprechend ausgerüstetes Programm also selbst – kein Mensch hat diese Fähigkeit manuell programmiert. Große Datenmengen sind eine wichtige Voraussetzung für Maschinelles Lernen. Nach dem Training mit diesen Daten kann das Programm dann Muster in Daten erkennen, sie nachahmen und Entscheidungen oder Vorhersagen treffen.  

Überwachtes Lernen

Beim Überwachten Lernen (engl. Supervised Learning) werden im Bereich des Maschinellen Lernens Trainingsdaten verwendet, bei denen ein Programm und der Mensch vorab bereits wissen, wie die korrekte Ausgabe aussehen soll. Der Mensch transferiert sein Vorwissen dazu auf das Programm, das dadurch sozusagen „vorgeschult“ wird. Die Daten enthalten demnach
neben dem Rohmaterial auch das erwartete Ergebnis. Beispielsweise werden einem Programm verschiedene Bilder von Katzen gezeigt. Gleichzeitig weiß das Programm schon, dass es sich um Katzen handelt. Es lernt dann also, Muster zu erkennen, die eine Katze zu einer Katze machen.

Unüberwachtes Lernen

Beim Unüberwachten Lernen (engl. Unsupervised Learning) werden Daten verwendet, bei denen weder Programm noch Mensch vorab wissen, wie die Ergebnisse aussehen werden. Die Maschine lernt dabei Muster aus Daten zu erkennen, bei denen die Zusammenhänge einzelner Variablen noch nicht klar sind. Ein Beispiel: Eine Maschine untersucht Bilder verschiedener exotischer Früchte und soll diese voneinander trennen – ohne zu wissen, was auf dem Bild zu sehen ist.

Ein Mensch, der nicht weiß, wie eine Papaya, eine Grapefruit oder eine Mango aussehen, würde die Früchte in einer großen Menge an Fotos wahrscheinlich aufgrund von Unterschieden in Farbe, Größe und Form unterteilen. Genauso tut es auch das Programm beim Unüberwachten Lernen. Dieses ist deshalb so wichtig, weil ein Großteil der weltweiten Daten – zum Beispiel Texte oder Audioaufzeichnungen – ungelabelt ist. Entsprechende Programme könnten also helfen, das Datenchaos in der Welt aufzuräumen und es dadurch für den Menschen zu erschließen.

Bestärkendes Learning

Beim Bestärkenden Lernen (engl. Reinforcement Learning) sammelt ein Algorithmus „Belohnungen“ in Form von Feedback (sowohl positiv als auch negativ) für abgeschlossene Aktionen. In einem Computerspiel kann das zum Beispiel die Weiterentwicklung auf ein nächstes Level sein oder die Game-over-Ansage. Das bedeutet, dass eine Situation nach einer gewissen Zeit evaluiert wird: Ist das selbstfahrende Auto am Ziel angekommen? Bin ich schachmatt? Die Parameter eines Modells werden, basierend auf diesem Feedback, angepasst. Mit dem neuen Wissen startet ein Programm dann in die nächste „Lernrunde“: Aktionen, mit denen ein Ziel in der Vergangenheit erfolgreich erreicht wurde, werden künftig wiederholt, Aktionen mit negativem Ausgang dagegen vermieden.  

Synthetische Daten

Daten sind für eine KI das, was Benzin für einen Verbrenner ist. Ohne Daten können künstliche neuronale Netze nicht lernen und nicht den Nutzen bringen, den wir von ihnen erwarten. Synthetische Daten sind ein Weg, um einen Mangel an realweltlichen Daten in bestimmten Bereichen auszugleichen. Dabei werden etwa durch Anonymisierung künstliche Abbilder von realen Daten geschaffen, in denen die Eigenschaften von realen Szenarien nachgeahmt sind.

So wird zusätzlich zu den echten Daten weiteres Trainingsmaterial mit künstlich erzeugten Eigenschaften geschaffen, was Zeit und Kosten spart. Die synthetischen Daten müssen aber sehr hochwertig sein, da Qualitätseinbußen schnell zu schlechten Trainingsergebnissen im Deep Learning führen können. Ein Nachteil ist, dass die Daten auf Basis von Mustern erstellt werden, die Ausreißer gegebenenfalls unberücksichtigt lassen. Das kann zu einem Informationsverlust führen.

Lest auch

Künstliche neuronale Netze

Künstliche neuronale Netze sind ein Anwendungsfall des Maschinellen Lernens. Sie sind den Verbindungen der Neuronen im menschlichen Gehirn nachempfunden, über die Informationen weitergegeben und verarbeitet werden und die selbstständiges Lernen ermöglichen. Die künstlichen neuronalen Netze bestehen aus Schichten, Verbindungen und Richtungen der Datenausbreitung. Die Schichten dienen dabei als eine Art Filtersystem. Ein digitales Bild etwa wird in mehrere Kacheln zerlegt und diese in die erste Schicht des neuronalen Netzwerks gegeben.

Hier werden Neuronen aktiviert, die die Daten an eine zweite Schicht übergeben. Die zweite Schicht und folgende Schichten von Neuronen erfüllen ebenfalls bestimmte Aufgaben, indem sie basierend, auf der vorhergehenden Aktion, Informationen weitergeben – bis die letzte Schicht die endgültige Ausgabe erzeugt. Im Prinzip durchlaufen die Daten so lange alle Schichten, bis sie Sinn ergeben. Dabei werden die Aufgaben der verschiedenen Schichten durch die Trainingsdaten selbst erlernt. So können künstliche neuronale Netze Muster erkennen, in großen Datenmengen Gemeinsamkeiten ausmachen („Das ist ein Elefant. Das ist eine Straßenkreuzung.“) und daraus Schlüsse ableiten.

Wie beim Gehirn gilt auch bei einem künstlichen neuronalen Netz: Je länger es sich mit Daten beschäftigt, desto genauer werden die Ergebnisse. Denn: Wenn etwas richtig erkannt wurde, wird dieser Erfolg in den Schichten abgespeichert. Mit der Zeit wird das Programm also immer intelligenter. Die Netze bilden die Grundlage für Lernprozesse, Schlussfolgerungen und abstraktes Denken.

Deep Learning

Wenn es im Sprachgebrauch heute um Künstliche Intelligenz geht, sind damit tatsächlich meist tiefe künstliche neuronale Netzwerke gemeint – denn sie befähigen ein System erst zum selbstständigen Lernen komplexer Aufgaben. Beim Deep Learning handelt es sich um eine weiterführende Entwicklung eines künstlichen neuronalen Netzwerks. Dabei steht „Deep“ für das In-die-Tiefe-Gehen durch die Schichten des neuronalen Netzes. Hier gibt es so viele Schichten, dass komplexere Analyseverfahren möglich sind. Deep-Learning-Modelle werden deshalb auch als „tiefe neuronale Netzwerke“ bezeichnet.

Natural Language Processing

Wenn menschliche Sprache durch intelligente Computerprogramme erkannt und verarbeitet wird, ist Natural Language Processing (NLP) im Spiel. Maschinen müssen Sprache dabei erkennen (zum Beispiel im Assistenzsystem eines selbstfahrenden Autos), sie verstehen, richtig interpretieren und darauf reagieren können. Ziel der Technologie ist es, eine direkte und auf gesprochener Sprache basierende Kommunikation zwischen Mensch und Computer zu ermöglichen. Sprachassistenten wie Siri oder Programme zur Simultanübersetzung basieren darauf. Da menschliche Sprache im Alltag im Alltag unentbehrlich ist, kommt kaum eine KI, die Alltagsprobleme lösen soll, um NLP herum.

Big Data

Als Big Data werden umfangreiche Mengen strukturierter und semistrukturierter Daten bezeichnet. Dabei geht es um eine so große Menge an Daten, dass Menschen sie mit herkömmlichen Verarbeitungsmethoden nicht mehr bewältigen können. Mit jeder Whatsapp-Nachricht und jeder Online-Kontoabfrage wächst der Datenberg. Unternehmen und Einrichtungen aus der Kommunikation, der Finanzindustrie, der Energiewirtschaft, dem Straßenverkehr oder dem Gesundheitswesen produzieren sie täglich. Auch in der Wissenschaft spielen sie eine Rolle.

Es gibt verschiedene Möglichkeiten, diese Datenmengen zu verarbeiten, auszuwerten und zu speichern. Eines der wichtigsten Ziele von Big Data ist es, Muster zu erkennen, auf deren Basis Entscheidungen gefällt werden können. Dazu zählt etwa das Erkennen von Kundenpräferenzen in Suchanfragen und das darauf aufbauende Ausspielen von Werbeanzeigen im Internet. Ein Großteil aller (Online-)Daten liegt allerdings unstrukturiert vor, was eine systematische Verarbeitung erschwert. Wissenschaftler untersuchen anhand großer Datenmengen etwa den Klimawandel oder Epidemien.

In Navigationssystemen werden Verkehrsdaten verarbeitet, um Staus zu umfahren. Große Datenmengen sind eine der wichtigsten Grundlagen für KI, da sie zu Trainingszwecken eingesetzt werden können. Ein Beispiel ist die Auswertung von Verkehrsdaten, um Staus vorherzusagen und Autofahrern Umleitungsempfehlungen zu geben. Für Firmen wie Google oder Amazon ist Big Data (und KI) ein naheliegendes Betätigungsfeld, weil sie aufgrund ihres Geschäfts bereits auf einem riesigen Datenhaufen sitzen.

Computer Vision

Damit Autos fahrerlos über die Straßen gleiten und auf Situationen reagieren können, müssen sie lernen, ihre Umgebung wahrzunehmen. Mit Problemen wie diesen beschäftigt sich auf dem Feld der KI die Computer Vision (auch Maschinelles Sehen genannt). Dabei geht es darum, visuelle Daten (zum Beispiel Kameramaterial) zu verarbeiten und daraus Schlussfolgerungen zu ziehen. Beispielsweise sind viele autonome Testfahrzeuge heutzutage neben anderen Sensoren mit Kameras ausgestattet, die das menschliche Auge ersetzen sollen. In einem Tiefen neuronalen Netzwerk werden diese Daten dann ausgewertet und interpretiert. So kann ein Roboterfahrzeug beispielsweise eine rote Ampel erkennen.

Lest auch

Object Detection

Object Detection beschreibt den Versuch, Gegenstände oder Gesichter in Bildmaterial zu erkennen und zuzuordnen. So sollen Algorithmen etwa einen Apfel von einem Stuhl unterscheiden können. In einem künstlichen neuronalen Netzwerk funktioniert diese Erkennung auf den einzelnen Schichten: Im ersten Schritt werden etwa Formen identifiziert (Kanten, Rundungen), im nächsten Farben, im nächsten Größen – und schließlich die kompletten Gegenstände. Google setzt etwa bei Google Photos auf Object-Detection-Verfahren, um Bilder von Gesichtern einzelnen Personen zuzuordnen.

Human Pose Estimation

Bei der Human Poste Estimation geht es darum, mit Verfahren der Computer Vision menschliche Figuren in Fotos und Videos zu identifizieren. Dabei geht es nicht um das Erkennen von einzelnen Personen, sondern von Körperhaltungen und Bewegungen. Die Human Pose Estimation ist beispielsweise für Augmented-Reality-Anwendungen von Bedeutung. Ein Programm soll dadurch erkennen, dass eine Person etwa ihren Arm anhebt oder in die Hocke geht. Ein Beispiel dafür: die Konsolen-Hardware Kinect, die eine Xbox-Bedienung über Bewegungen erlaubt.

Lidar

Lidar-Systeme senden Lichtwellen in Form von Laserstrahlen aus. Die Funktionsweise ist ähnlich wie bei einem Radarsystem. Die nicht sichtbaren Lichtstrahlen werden auch hier zur Geschwindigkeits- und Abstandsmessung genutzt. Da Lidar eine geringere Reichweite als Radar hat, setzt man es zur Hinderniserkennung ein, beispielsweise bei Notfall-Bremsassistenten. Sie erkennen zum Beispiel ein stehendes Fahrzeug oder Personen, woraufhin die Software dann eine Vollbremsung auslösen kann.

Bild: Getty Images / Andriy Onufriyenko
Lade Premium-Inhalte...