Pepper Robot - Mensch vs Maschine - Wie lernt künstliche Intelligenz?
test title

Mensch vs. Maschine: Wie lernt künstliche Intelligenz?

Das Auto parkt selbstständig ein, der Computer stellt Diagnosen und berät bei der Geldanlage. Zunehmend mehr intelligente Systeme sind Teil unseres Alltages. Sie begleiten uns im Smartphone überall hin und übernehmen immer komplexere Aufgaben. Künstliche Intelligenz (kurz KI) ist im Begriff unsere Lebens- und Arbeitswelt grundlegend zu verändern. Doch was ist künstliche Intelligenz und wie lernt sie?

Was ist künstliche Intelligenz?

Der Begriff künstliche Intelligenz wird seit Mitte der 1950er Jahre verwendet. Es handelt sich um ein Teilgebiet der Informatik, das viele unterschiedliche Technologien wie etwa Bildverarbeitung, Robotik und Spracherkennung beinhaltet. Das Besondere dieses Teilgebietes ist, dass man versucht, die menschlichen Fähigkeiten zum Denken, zum Lernen anhand von Beispielen und zum Problemlösen im Allgemeinen nachzubilden, um die Leistung von Computern zu steigern.

Jüngst erreichte künstliche Intelligenz enorme Fortschritte auf dem Gebiet der künstlichen neuronalen Netze. Insbesondere die Erfolge bei der maschinellen Übersetzung, bei der Gesichts- und Spracherkennung und beim autonomen Fahren sind auf Deep-Learning-Verfahren, eine Weiterentwicklung der neuronalen Netze, zurückzuführen. Mit ihnen lassen sich Objekte und Muster erkennen und klassifizieren. Eine Gruppe von Forschern um Geoffrey E. Hinton, Professor an der Universität Toronto und seit 2013 auch leitender Forscher bei Google, begründeten dieses Gebiet, das seit seiner Entstehung auf dem gesamten Globus Aufmerksamkeit erregt hat und vielseitig erfolgreich kommerziell eingesetzt wird.

In der Vergangenheit führten Computer das aus, was der Programmcode und die vordefinierten Algorithmen ihnen vorgaben. Durch die Entwicklung künstlicher neuronaler Netze sollen Computerprogramme befähigt werden, ähnlich dem menschlichen Gehirn zu lernen und das Gelernte auf unbekannte Situationen anzuwenden.

Informationsverarbeitung im menschlichen Gehirn

Um die Lernprozesse von KI zu verstehen, ist es hilfreich, einen Blick auf die Funktionsweise des menschlichen Gehirns zu werfen. Unser Gehirn ist ungefähr 1,3 Kilogramm schwer und umfasst etwa 86 Milliarden Nervenzellen, die miteinander verbunden sind. Je nachdem, welches Gehirnareal man betrachtet, sind es mehr oder weniger Verbindungen zu anderen Nervenzellen. Im Durchschnitt sind es rund 1000 Verbindungen, sogenannte Synapsen. In diesem Netzwerk aus Neuronen existieren 100 Billionen bis eine Billiarde Kontaktstellen. Würde man alle Nervenverbindungen eines Menschen hintereinanderlegen, käme man auf nahezu sechs Millionen Kilometer.

Informationen werden im Gehirn in erster Linie über elektrische Stimulation der Nervenzellen, auch Aktionspotenziale genannt, verarbeitet. Hat eine Zelle einen elektrischen Impuls erhalten, wandert dieser innerhalb von ein bis zwei tausendstel Sekunden entlang der Nervenfaser dieses Neurons zu den nachgeschalteten Neuronen. Durch den Impuls werden an den Nervenfaserenden Botenstoffe wie Glutamat, Serotonin, Dopamin, Noradrenalin und Acetylcholin ausgeschüttet, sogenannte Neurotransmitter. Diese Botenstoffe werden in den synaptischen Spalt ausgeschüttet und von der nachgeschalteten Zelle über Rezeptoren aufgenommen. Dadurch kommt es in der zweiten Zelle zu Ionenströmen, die die Nervenzelle elektrisch stimulieren oder hemmen. Alle an der Empfängerzelle eintreffenden Signale werden addiert. Wenn sie innerhalb eines bestimmten Zeitraums einen bestimmten Wert überschreiten, überträgt auch diese Zelle das Aktionspotenzial an die nächste. Gehen die eintreffenden Reize nicht über den Schwellenwert hinaus, bleibt die Nervenzelle inaktiv. Diese Funktionsweise der Neuronen nach dem Prinzip alles oder nichts, ähnelt der digitalen Signalübertragung mit den Werten 1 und 0 in Computern.

Lebenslanges Lernen: Einlaufen von Pfaden

In den ersten 25 Lebensjahren entstehen immer wieder neue Nervenfasern und alte werden abgebaut. Abhängig von den Erfahrungen und basierend auf der genetisch festgelegten Grundstruktur des Menschen entwickelt sich in dieser Zeit eine individuelle Architektur des Gehirns.

Neben diesen Vorgängen gibt es auch lebenslange Lernprozesse. Dabei werden keine neuen Nervenfasern angelegt, sondern existierende Nervenverbindungen verstärkt oder verringert. Lernen wir die englische Sprache und eignen uns neue Vokabeln an, dann gehen wir in unserem Hirn immer wieder denselben Weg. Die Nervenverbindung zwischen dem bekannten deutschen Wort «Katze» und der neuen Vokabel «cat» wird immer stärker. Während wir uns am Anfang den Weg noch durch Gestrüpp bahnen mussten, ist er durch das mehrmalige Benutzen zu einem kleinen Trampelpfad geworden und wird zu einem breiten Weg, wenn wir die Vokabel häufig wiederholen. Hören wir dann das Wort «Katze», werden sofort die akustischen Neuronen, die mit dem Klang des Wortes gekoppelt sind und die entsprechenden sprachlichen Nervenzellen des deutschen und englischen Wortes aktiv. Dieser gekoppelte, assoziative Lernprozess entspricht den Vorgängen in künstlichen neuronalen Netzen und beim Deep-Learning-Verfahren.

Struktur künstlicher neuronaler Netze

Ein Deep-Learning-System ist dem Gehirn nachempfunden und besteht aus einem Netzwerk simulierter Neuronen. Diese sogenannten Knoten sind in Schichten angeordnet. Besitzt ein Netzwerk besonders viele Schichten, ist es besonders komplex und tief (deep). Hatten die neuronalen Netze, die vor über 35 Jahren entwickelt wurden, Hunderte oder ein paar Tausend Knoten und nur eine Handvoll Schichten, so verfügen moderne Deep-Learning-Systeme über Millionen bis Milliarden künstlicher Nervenzellen sowie Schichten im zweistelligen Bereich. Ermöglicht haben diese Entwicklung die rapide Steigerung der Rechenleistung und der Speicherfähigkeit von Computern.

Häufig sind die Netze so aufgebaut, dass jeder Knoten einer Schicht mit allen Knoten der folgenden Schicht verknüpft ist. Wenn ein Knoten aktiviert wird, leitet er den Impuls wie das Aktionspotenzial im Gehirn an alle mit ihm verbundenen Knoten weiter. Die Bedeutung jeder Verbindung kann – wie im Gehirn – variiert werden. Auch Schwellenwerte können für die künstlichen Nervenzellen festgelegt werden. Nur wenn die Summe der ankommenden Signale einen Schwellenwert überschreitet, reichen sie das Signal weiter.

Training künstlicher neuronaler Netze

Erhält ein künstliches neuronales Netzwerk beispielsweise viele verschiedene Abbildungen von Hunden, dann sollte das Output der letzten Schicht Hund lauten. Die verschiedenen Schichten des Netzwerks sollen lernen, verschiedene Muster und Strukturen zu erkennen. Die erste Ebene etwa verarbeitet das Bild eines Hundes Pixel für Pixel und gibt diese Informationen weiter an die nächste Schicht, wo die Formen und Umrisse erkannt werden. Die letzten Schichten suchen nach zusammenhängenden Teilen wie Ohren, Augen oder Beinen eines Hundes. Die letzte Ebene führt alle Informationen zu einer Interpretation zusammen.

Um KI solche Leistungen vollbringen zu lassen, ist eine umfangreiche Lernphase nötig. Neuronale Netze können über verschiedene Lernverfahren trainiert werden: überwachtes, unüberwachtes und bestärkendes Lernen.

Überwachtes Lernen

Beim überwachten Lernen unterstützt der Mensch den Computer. Mithilfe riesiger Datensätze und unzähliger Wiederholungen lernt das Netzwerk, die richtigen Entscheidungen zu treffen, indem die Ergebnisse des Lernprozesses mit den vorher festgelegten gewünschten Ergebnissen verglichen werden. Hat das System die Bilder nicht erkannt, werden die Gewichte der Verbindungen mathematisch verändert, um zukünftig ein Resultat zu erhalten, das eher dem erwarteten Ergebnis entspricht. Ähnlich wie das Gehirn lernt es durch positive Verstärkung: Eine erfolgreiche Aktion wird wiederholt, ein Misserfolg wird zukünftig verändert. Mit der Zeit kommt es zu Veränderungen in der Struktur des neuronalen Netzes. Die Verbindungen und Knoten, die zum Erfolg geführt haben, werden immer stärker und dominanter, während die erfolglosen sich zurückbilden – wie in unserem Gehirn. So lernt der Computer Schritt für Schritt immer besser auf die Trainingsdaten zu reagieren. Auf diese Weise entstehen Programme, die auf Veränderungen und nach Bedarf reagieren können.

Um Hunde und Katzen auf Bildern unterscheiden zu können, benötigen Computer hunderte bis tausende Trainingsversuche und immer wieder das entsprechende Feedback, bis sie geeignete Ergebnisse liefern. Im Vergleich dazu müssen Kinder nur drei Mal eine Katze sehen, um das Konzept Katze verstanden zu haben.

Unüberwachtes Lernen

Beim unüberwachten Lernen, das von Computern schnell und selbstständig durchgeführt werden kann, kommen keine vorgegebenen Zielwerte und keine Belohnung für richtige Entscheidungen zum Einsatz. Die Systeme identifizieren selbst ähnliche Merkmale und verändern dem entsprechend die Gewichtungen zwischen den Knoten, jedoch ohne zu wissen, worum es sich handelt. Das unüberwachte Lernen eignet sich besonders für das Bilden von Clustern und die Komprimierung von Daten.

Bestärkendes Lernen

Wenn für ein Training keine geeigneten Ergebnisdaten zur Verfügung stehen, kann auch das bestärkende Lernen angewendet werden. Zum Beispiel kann man nicht vorher festlegen, welches Verhalten geeignet ist, wenn ein Roboter sich in einer fremden Umgebung zurechtfinden soll. In diesem Fall werden dem Roboter Aufgaben gestellt, die er selbstständig lösen soll und der Mensch bewertet die einzelnen Versuche.

Je mehr Daten als Beispiele für das Lernen zur Verfügung stehen, desto besser arbeiten Deep-Learning-Verfahren. Das Internet bietet inzwischen mehr sogenannter unstrukturierter Daten als nötig. Milliarden Bilder, Billionen Worte in Texten sowie Audio- und Videodateien sind vorhanden und sekündlich kommen neue dazu. Für das Training werden auch strukturierte Daten aus angelegten Datenbanken genutzt. Die Datenbank ImageNet beispielsweise ist mit ihren über 14 Millionen Bildern samt Textbeschreibung frei verfügbar.

Aktuelle Entwicklungen: KI lernt in 20 Minuten Autofahren

Dem britischen Start-up Wayve ist jüngst ein Durchbruch im Bereich des autonomen Fahrens gelungen. Mit nur einer Videokamera und einem selbstlernenden Algorithmus bringt Wayve Autos innerhalb von 20 Minuten eine einfache Form des selbstständigen Fahrens bei. Bislang waren dafür viele Sensoren, aktuelles 3-D-Kartenmaterial, viel Programmierarbeit und zahlreiche Testkilometer notwendig.

Das Unternehmen trainiert die KI mit einem bestärkenden Lernverfahren. Hinter dem Lenkrad nimmt dafür ein menschlicher Trainer Platz. Die KI verfügt über keinerlei Vorwissen und beginnt mit zufälligen Fahrmanövern. Um Zusammenstösse zu vermeiden, greift die Person hinter dem Steuer bei Bedarf ein. Je länger das Auto es schafft, ohne menschliches Eingreifen zu fahren, umso grösser fällt die Belohnung für sie aus. Die KI lernt durch Versuch und Irrtum. Der Trainer oder die Trainerin unterstützt, bis die KI eigenständig die Spur halten kann. Wayve ist es gelungen, diesen Trainingszeitraum auf phänomenale 20 Minuten zu komprimieren. Bisher ist allerdings noch offen, wie die KI mit komplexeren Verkehrssituationen umgeht.

Fazit

Auch wenn die Grundidee der Vernetzung vieler kleiner Recheneinheiten, die gemeinsam Informationen verarbeiten, die gleiche ist und die künstlichen neuronalen Netzwerke der Funktionsweise des menschlichen Gehirns in manchen Punkten ähneln, sind die wirklichen Prozesse und Funktionen zur Informationsverarbeitung im menschlichen Gehirn weitaus komplexer als ihr technisches Abbild. Auch gewisse Lernverfahren wie das bestärkende und das unüberwachte Lernen weisen grosse Ähnlichkeiten zum menschlichen Lernprozess auf. Zwar können künstliche neuronale Netze riesige Datenmengen verarbeiten und sind dem Menschen auf Spezialgebieten überlegen, doch bei der Verarbeitung von Wissen und in der Zuordnung von Bedeutung stehen sie noch am Anfang. Ihr Training und Einsatzgebiet bleiben auf sehr enge Bereiche begrenzt, so dass sie (noch) nicht mit der Universalität des menschlichen Gehirns und Geistes konkurrieren können.

Literatur & Quellen

0 Comments

    Schreiben Sie einen Kommentar