background

Kurze Geschichte der künstlichen Intelligenz Teil II: Vom KI-Winter zum kommerziellen Erfolg

23. Juni 2019 - 11 Minuten

Kurze Geschichte der künstlichen Intelligenz Teil II: Vom KI-Winter zum kommerziellen Erfolg

Die Geschichte der KI-Forschung ist von sich abwechselnden Hoch- und Tiefphasen, KI-Sommern und KI-Wintern, geprägt. Zahlreiche Hypes entstanden und verschwanden wieder, häufig gefolgt von Enttäuschung, Kritik und Kürzung der Forschungsfinanzierung. Im Jahr 1973 hatte der Mathematiker Michael J. Lighthill vom britischen Parlament den Auftrag erhalten, den aktuellen Stand der KI-Forschung einzuschätzen. Sein Urteil war vernichtend:

«In keinem Bereich haben die gemachten Entdeckungen die bedeutenden Auswirkungen gehabt, die damals [ca. 1960] versprochen worden waren.»

                                    (Lighthill 1973)

Da laut seines Berichtes keines der anvisierten Ziele umgesetzt worden war, wurden die finanziellen Mittel gekürzt und entsprechend weniger geforscht. Auch in den USA sorgte die Neuorientierung der DARPA (Defense Advanced Research Projects Agency, Behörde des Verteidigungsministeriums der Vereinigten Staaten) auf kurzfristige Anwendungsforschung für Probleme in der Grundlagenforschung der KI.

Mit wissensbasierten Systemen zum Erfolg

Ab Mitte der 70er Jahre richtete sich der Blick der Wissenschaftlerinnen und Wissenschaftler auf praktische Anwendungen, sogenannte Expertensysteme. Ein Expertensystem verfügt über eine enorme Wissensbasis in einem stark eingegrenzten Fachgebiet und zahlreiche Regeln, die es auf dieses Wissen anwenden kann. Das bekannte Expertensystem MYCIN etwa wurde für die Diagnose von Blutinfektionen entwickelt. Mit 450 Regeln und einer grossen Wissensbasis war MYCIN in der Lage, eine Diagnose zu erstellen und eine Therapie zu empfehlen. Es war so gut, dass MYCIN es auf seinem Wissensgebiet mit einem Spezialisten aufnehmen konnte. Nach MYCIN wurden viele weitere Expertensysteme mit komplizierter Architektur und einer Vielzahl von Regeln entwickelt und in unterschiedlichen Bereichen genutzt. In der Chemie etwa kam DENDRAL (Analyse der Molekularstruktur) und in der Geologie PROSPECTOR (Analyse von Gesteinsformationen) zum Einsatz.

Die Kommerzialisierung künstlicher Intelligenz

Anfang der 1980er Jahre wurde das erste kommerzielle Expertensystem erfolgreich eingesetzt. Das Programm R1 sparte dem Unternehmen Digital Equipment Corporation jährlich hohe Millionenbeträge, indem es half, Aufträge für neue Computersysteme einzurichten. 1981 rief Japan das ehrgeizige Fifth Generation Project ins Leben, ein Zehnjahresplan für den Aufbau intelligenter Computer. Auch die USA und Grossbritanien intensivierten die Unterstützung der KI-Forschung und weitere Länder folgten ihrem Beispiel. 1988 wurde das Deutsche Forschungszentrum für Künstliche Intelligenz gegründet. Die KI-Industrie wuchs von 1980 mit einigen Millionen Dollar auf mehrere Milliarden Dollar im Jahr 1988. Hunderte Firmen entwickelten Expertensysteme, Roboter sowie spezielle Soft- und Hardware. Nur kurze Zeit später verschwanden zahlreiche dieser Unternehmen wieder vom Markt, weil sie ihre Versprechen nicht einlösen konnten. Die angebotenen Lösungen waren häufig zu teuer und fehleranfällig.

Die neuronalen Netze sind zurück

Mitte der 1980er Jahre machten die wieder entdeckten neuronalen Netze der symbolischen KI Konkurrenz. Man griff auf die Forschungsergebnisse aus den 1940er von McCulloch und Pitts, die mathematische Modelle künstlicher Neuronen entwickelt hatten, zurück. Im Gegensatz zur Symbol verarbeitenden KI orientieren sich neuronale Netze im Groben an der Funktionsweise der Nervenzellen (Neuronen) im menschlichen Gehirn. Viele Schichten uniformer künstlicher Neuronen sind miteinander vernetzt, um Informationen zu verarbeiten. Diese Verknüpfungen können sich in ihrer Stärke verändern und lassen Rückkopplungen zu. Dadurch sind neuronale Netze in der Lage zu lernen. Je häufiger eine Verbindung genutzt wird, desto höher ist ihre Verbindungsstärke und Bedeutung. Bereits 1969 thematisierten Arthur E. Bryson und Yu-Chi Ho ein heute Backpropagation genanntes Verfahren, das sich erst später als bahnbrechende Idee herausstellte. Mit diesem Verfahren können neuronale Netze trainiert werden, indem sie eine Menge von Eingabedatensätzen erhalten, für die bereits Ergebnisse vorliegen. Die erwarteten Ergebnisse werden mit den tatsächlichen verglichen. Hat das Netz einen Fehler gemacht, können mithilfe mathematischer Verfahren Anpassungen berechnet und Gewichtungen korrigiert werden. 1986 gelang es David E. Rumelhart, Geoffrey E. Hinton und Ronald J. Williams mit der Backpropagation ein neuronales Netz zu betreiben, das Eigenschaften von Bildern besser erkennen lernte. Neuronale Netze zeigten beeindruckende Leistungen im Bereich des Lernens und entsprechend intensiv wurde die Forschung unterstützt. Doch schnell wurde klar, dass die verfügbare Datenbasis für Trainings zu klein war und die Rechenleistung der Computer noch immer nicht ausreichte. Erst ab 2006 erlebten sie einen erneuten Boom.

Die Verfügbarkeit riesiger Datenquellen

Nach einer langen Durststrecke in den 1990ern schwang sich die KI-Branche in den 2000er Jahren zu einem neuen Siegeszug auf, der bis heute anhält. In den vergangenen Jahren der KI-Forschung hatten die Algorithmen im Mittelpunkt gestanden. Um die Jahrtausendwende wuchs das Interesse der Forscherinnen und Forscher für die Daten und ihre Quellen, die zunehmend leichter und in viel höherer Zahl verfügbar waren. Frühere Ansätze hatten auf manuell kommentierte Beispiele in Verbindung mit maschinellen Lernalgorithmen gesetzt. Nun stellte sich heraus, dass die Lernergebnisse besser waren, je mehr Daten zur Verfügung standen und selbst der beste Algorithmus mit einer Million unkommentierter Daten nicht den mittelmässigen Algorithmus mit 100 Millionen unkommentierter Daten schlagen konnte. Auf dem Weg zur Lösung des Problems, wie ein System zu dem Wissen kommt, dass es für eine bestimmte Aufgabe benötigt, waren die Wissenschaftlerinnen und Wissenschaftler einen guten Schritt weiter.

Die Roboter kommen

Ab Mitte der 1990er Jahre erhielt die bis dahin wenig in Erscheinung getretene Robotik Aufwind. Auf dem seit 1997 stattfindenden RoboCup lassen Wissenschaftlerinnen und Wissenschaftler sowie Studierende ihre Forschungsergebnisse im Fussball und anderen Wettbewerben gegeneinander antreten und zeigen, wozu KI und Robotik heute in der Lage sind. Das Ziel der RoboCup-Weltmeisterschaften ist es, im Jahr 2050 den menschlichen Fussballweltmeister zu besiegen. Seit 2005 sind Serviceroboter ein wichtiges Forschungsgebiet und seit 2010 werden autonome Roboter im maschinellen Lernen immer besser.

Aktuelle Entwicklungen

Ende der 2000er Jahre machten sich KI-Anwendungen auch im Alltag breit. Besonders das maschinelle Lernen, neuronale Netze und die Verarbeitung natürlicher Sprache florierten. Aufgrund der verbesserten technischen Möglichkeiten und des ökonomischen Potentials engagierten sich zunehmend grosse IT-Konzerne in der KI-Forschung. Ab 2010 nahm die Entwicklung an Fahrt auf. Apple brachte 2011 die Spracherkennungssoftware Siri als persönlichen Assistenten heraus und das Computersystem Watson von IBM gewann erstmalig im TV-Quiz Jeopardy! gegen die bisherigen menschlichen Champions. Watson versteht natürliche Sprache und beantwortet schwierige Fragen innerhalb kürzester Zeit. IBM hatte Watson fünf Jahre lang entwickelt und angepasst, bis er 200 Millionen Textseiten, unter anderem das Internetlexikon Wikipedia, auswerten konnte. Inzwischen kann Watson Ärzten bei Diagnosen, Pharmafirmen bei der Medikamentenentwicklung und Bankberatern bei Anlagestrategien unterstützen. Weitere grosse Unternehmen investierten ebenfalls in KI: Google, Microsoft, Facebook und Amazon bieten KI-Anwendungen und -Services an. 2016 schaffte es die lernfähige Software AplhaGo von Google Lee Sedol, den besten Go-Spieler der Welt, mit 4 zu 1 zu schlagen. Dies hatten Experten noch kurze Zeit vorher nicht vor 2025 für möglich gehalten. Go ist deutlich komplizierter als Schach und konnte bis dahin nicht von traditionellen Algorithmen geschlagen werden. Einer der Treiber der aktuellen Entwicklung ist der exponentielle Anstieg der Rechengeschwindigkeit. Der erste autonome Roboter Shakey, der Name ist eine Anspielung auf seine ruckartigen Bewegungen, aus dem Jahr 1965 verfügte über 192 Kilobyte Arbeitsspeicher. Watson konnte auf 16 Terabyte zurückgreifen und überstieg Shakey um das 83-Millionen-Fache. Fachleute gehen von einer Vertausendfachung der Rechenleistung sowie Speicher- und Kommunikationsfähigkeit von Mikrochips in den kommenden 20 Jahren aus. Das Kirchhoff-Institut an der Universität Heidelberg fertigt bereits neuromorphe Chips, die arbeiten wie menschliche Nervenzellen und Synapsen, nur 10000-mal schneller. Eine weitere Ursache ist die zunehmende Verfügbarkeit riesiger strukturierter und unstrukturierter Datenmengen aus unterschiedlichen Quellen wie Sensoren und digitalisierten Texten und Bildern, anhand derer Lernalgorithmen üben können. Immer kleiner und günstiger werdende Sensoren, wie Kameras, Laser oder Radar, und leistungsfähigere Algorithmen treiben die technologische Entwicklung ebenfalls voran. Hinzu kommen verbesserte und vielseitig einsetzbare KI-Verfahren wie das Deep Learnig. Deep Learnig ist eine Weiterentwicklung der neuronalen Netze, mit der sich Objekte und Muster aller Art erkennen und klassifizieren lassen. 2018 kam es im Verstehen natürlicher Sprache, einem Gebiet, das die Forscher der ersten Jahrzehnte der KI-Forschung zur Verzweiflung brachte, zu enormen Fortschritten. Im März präsentierte Microsoft Research eine KI, deren Übersetzungen vom Chinesischen ins Englische es mit denen eines professionellen menschlichen Übersetzers aufnehmen konnten. Auf einer Entwicklerkonferenz im Mai stellte Google sein KI-System Duplex vor. Die KI rief in einem Friseur-/Coiffeursalon und in einem Restaurant an, um Termine zu vereinbaren. Google gelang es, die Sprache der KI durch gezielten Einsatz von Ungenauigkeiten, Denkpausen und Floskeln täuschend echt wirken zu lassen.

Fazit & Ausblick

Entgegen Lighthills düsterer Prognose hat die KI-Forschung enorme Fortschritte zu verzeichnen und zahlreiche KI-Techniken haben es aus den Forschungslaboren in den Alltag der Menschen geschafft. Künstliche neuronale Netze sind heutzutage nicht mehr wegzudenken. Ihre künstlichen Neurone arbeiten, bis auf kleine Veränderungen, wie die von McCulloch und Pitts vor mehr als 70 Jahren. Heute haben Regierungen auf der ganzen Welt die enorme Bedeutung künstlicher Intelligenz und ihrer Erforschung erkannt. Die EU etwa stockte im Frühjahr dieses Jahres ihre Investitionen im Zuge des Forschungs- und Innovationsprogramms Horizont 2020 auf 1,5 Milliarden Euro auf. Das Zeitalter intelligenter Maschinen hat längst begonnen. In zahlreichen Schulen und Universitäten entstehen Roboterlabore und Programmierworkshops. An einschlägigen Konferenzen zu künstlicher Intelligenz nehmen nicht mehr hunderte, sondern tausende Expertinnen und Experten teil. Auch in Büros und Fabriken kommt immer mehr KI zum Einsatz. Die Entwicklung ist unaufhaltsam. Maschinen mit einer gewissen Art von Intelligenz werden immer mehr in unseren Alltag eindringen und alle Lebensbereiche fundamental verändern. Sie werden neue Märkte schaffen, uns helfen und neue Sicherheitsfragen aufwerfen.

Literatur & Quellen


 Kostenloses Erstgespräch vereinbaren

comments powered by Disqus

Diese Artikel könnten Sie auch interessieren

Zuverlässige Qualitätssicherung mit KI
23. Juni 2019 - 9 Minuten
Zuverlässige Qualitätssicherung mit KI

Künstliche Intelligenz erobert nach und nach sämtliche Branchen – nicht zuletzt ist gerade die Logistik ein Bereich, in dem KI besonders stark zur Optimierung beitragen kann. Denn die Logistik bietet durch die...

Mehr lesen