background

Kurze Geschichte der künstlichen Intelligenz Teil I

23. Juni 2019 - 13 Minuten

Kurze Geschichte der künstlichen Intelligenz Teil I: Oder was Aristoteles mit Chatbots zu tun hat

Am Anfang stand eine vermeintlich einfache Frage: Kann eine Maschine denken? Der herausragende britische Mathematiker und Kryptoanalytiker Alan Turing stellte sie 1950 in seinem Aufsatz Computing Machinery and Intelligence und inspirierte damit zahlreiche Forscher. Turing war klar, dass es unterschiedliche Auffassungen gab, was die Begriffe Maschine und denken bedeuten. Um diesen Streit zu umgehen, grenzte er den Begriff Maschine auf Digitalrechner ein und konzipierte einen einfachen praktischen Test, der zeigen sollte, ob ein Computer intelligentes Verhalten simulieren kann. Der Computer hat den Turingtest bestanden, wenn sein menschliches Gegenüber, das schriftliche Fragen stellt, nicht erkennen kann, ob die schriftlichen Antworten von einem Menschen oder einem Computer stammen. 1990 initiierte der Soziologe Hugh Gene Loebner den nach ihm benannten Loebner-Preis. Den Preis sollte das Programm erhalten, das erstmals den Turingtest besteht. Bisher wurde das Preisgeld von 25000 Dollar noch nie ausgezahlt, da die Jury die Dialogsysteme immer enttarnte. Jedes Jahr werden deshalb die Desktopagenten ausgezeichnet, die dem Menschen am ähnlichsten sind. Sie verfügen über besondere Fähigkeiten im Sprachverstehen, genauer im Begreifen geschriebener Worte, und allgemeines Weltwissen. Interessante bis amüsante Lektüre: Auf der Website des Loebner-Preises finden sich die Gewinner und die Dialoge zwischen Desktopagenten und Mensch.

Vordenker künstlicher Intelligenz

Künstliche Intelligenz (kurz KI) ist ein junger Zweig der Informatik, der auf eine lange Denktradition und konkrete Forschung seit den 50er Jahren des 20. Jahrhunderts zurückgeht. Die Idee menschliches Denken zu formalisieren und zu imitieren, findet sich bereits bei Aristoteles (384 - 322 v. Chr.), der ein System entwickelte, mit dem logisches Schliessen und mechanische Schlüsse möglich waren. Er war der Erste, der eine genaue Menge von Gesetzen skizzierte, die die rationale Komponente des Verstandes beschrieb. Schon Leonardo da Vinci (1452 - 1519) entwarf eine mechanische Rechenmaschine, die er allerdings nie in die Praxis umsetzte. Aktuelle Untersuchungen gehen davon aus, dass seine Konstruktion funktioniert hätte. Auch der Philosoph Thomas Hobbes zieht in seinem Werk Leviathan aus dem Jahr 1651 Parallelen zwischen Mensch und Maschine:

«Denn was ist das Herz anderes als eine Feder, was sind die Nerven anderes als lauter Stränge und die Gelenke anderes als lauter Räder?»

                                (Hobbes 2005)

Auf dem Weg zu künstlicher Intelligenz

Am Anfang der Geschichte der KI-Forschung stehen der Neurophysiologe Warren McCulloch und der Logiker Walter Pitts. Inspiriert von neuen Ergebnissen der Hirnforschung veröffentlichten sie 1943 die erste Arbeit zum Thema KI. Gemeinsam hatten sie ein Modell künstlicher Neuronen entworfen und mit mathematischen Mitteln bewiesen, dass Nervenzellen alle logischen Operationen wie UND, ODER oder NICHT ausführen können, wenn sie zu Netzwerken verknüpft werden. Jedes hypothetische Neuron kann in den Zustand an oder aus versetzt werden, indem es von benachbarten Nervenzellen entsprechende Signale erhält. Diese Schwellenlogik bildet in abgewandelter Form noch heute die Basis für künstliche neuronale Netze. Ebenfalls richtungsweisend waren Alan Turings Ideen zum Maschinenlernen, genetischen Algorithmen und verstärkendem Lernen. Laut Turing war eine Maschine in der Lage, jede Aufgabe zu bewältigen, sofern sie mit einem Algorithmus dargestellt werden kann. Auch anspruchsvolle kognitive Prozesse könnten in genau definierte Einzelschritte unterteilt und von einer Maschine bewältigt werden. Zwar hatte Konrad Zuse 1941 den ersten digitalen Computer in Berlin erfunden, aber Turings, McCullochs und Pitts’ theoretischen Überlegungen fehlte die materielle Grundlage, auf der solche Netzwerke hätten simuliert werden können. 1951 gelang es einem Team an der Universität Manchester, den Computer Ferranti Mark I nach den Vorgaben Turings zu entwickeln und künstliche Intelligenz erstmals praktisch anzuwenden. Mithilfe eines Programms spielte der Ferranti Mark I Dame, allerdings nicht besonders gut. Den Begriff künstliche Intelligenz gab es zu dieser Zeit noch nicht.

Die Geburtsstunde künstlicher Intelligenz

Der Begriff künstliche Intelligenz (im Englischen Artificial Intelligence, AI) wurde erstmals 1956 von John McCarthy verwendet. McCarthy gab der zweimonatigen, legendären Tagung mit dem Titel Summer Research Project on Artificial Intelligence ihren Namen. Sie gilt als offizieller Startschuss akademischer Forschung auf diesem Gebiet. Zehn Wissenschaftler aus ganz Amerika kamen zusammen, um sich über Computer auszutauschen, die mehr können sollten als das Rechnen mit Zahlen. Sie wollten herauszufinden, wie Maschinen dazu gebracht werden können, Sprache zu verwenden, Spiele zu spielen, zu lernen und Abstraktionen und Konzepte zu bilden. Einen ersten Erfolg demonstrierte Arthur Samuel. Der Elektroingenieur spielte gern Dame und hatte ein Programm geschrieben, mit dem er dieses Spiel spielen konnte. Anfangs kannte das Programm nur die Regeln des Brettspiels und verlor jedes Mal. Samuel integrierte ein weiteres Programm, das während des Spiels für jeden Zug die Erfolgs- und Misserfolgswahrscheinlichkeit berechnete. Der brillante Einfall aber war, den Computer gegen sich selbst spielen und überprüfen zu lassen, ob die berechneten Wahrscheinlichkeiten stimmten oder angepasst werden mussten. Mit jedem Spiel wurde das Programm besser, bis Samuel schliesslich keine Chance mehr gegen den Computer hatte. Zum ersten Mal war es gelungen, einer Maschine eine Fähigkeit beizubringen, die sie selbstständig verbessern konnte und letztlich besser beherrschte als der Mensch.

Hohe Erwartungen

Ab diesem Zeitpunkt hatte man das Zutrauen, dass Maschinen menschliches intelligentes Verhalten imitieren können. Noch in den 1950er Jahren konnte der spätere Ökonomie-Nobelpreisträger und Konferenzteilnehmer Herbert Simon zeigen, dass Programme logische Theoreme mathematisch beweisen und damit die Intelligenzleistung von Mathematikern ersetzen konnten. Neben dem Rechnen mit Zahlen wurde die Logik zum Mittelpunkt maschineller Aufgabenbewältigung. Beflügelt durch die vielversprechenden Leistungen der ersten KI-Systeme stellten viele KI-Forscher ambitionierte Prognosen auf. So auch Herbert Simon 1957:

«Ich […] kann zusammenfassend berichten, dass es heute Maschinen gibt, die denken, die lernen und kreativ sind. Darüber hinaus wächst ihre Fähigkeit, diese Dinge zu tun, zügig weiter, bis – in absehbarer Zukunft – der Bereich der Aufgabenstellungen, mit denen sie zurechtkommen, genau so gross ist wie der Bereich, den der menschliche Verstand bewältigen kann.»

                                (Russel 2012)

Herbert Simon sagte im gleichen Jahr voraus, dass innerhalb des kommenden Jahrzehnts ein Computer Schachweltmeister werden würde. Doch erst 1997 gelang es IBM, den amtierenden Schachweltmeister Garri Kasparov mit Deep Blue unter Turnierbedingungen zu schlagen. Deep Blue war kein lernendes System. Vielmehr hatte der enorme Zuwachs an Rechenleistung dafür gesorgt, dass das Programm 200 Millionen Schachstellungen in einer einzigen Sekunde analysieren konnte. 1969 veröffentlichten Marvin Minsky und Seymour Papert ihr Buch Perceptron, in dem sie schlüssig zu beweisen schienen, dass Perzeptronen-Netzwerke (eine einfache Form eines neuronalen Netzes) auch simple Probleme der KI nicht würden meistern können. Obwohl ihre Ergebnisse nicht für komplexere, mehrschichtige Netze galten, hatte das Werk einen dermassen grossen Einfluss auf die KI-Forscher, dass das Interesse an neuronalen Netzen vor allem in den USA verebbte.

Symbol verarbeitende KI

Auch wenn der Grundstein für lernende neuronale Netze schon in der Anfangsphase der KI-Forschung gelegt wurde, entwickelte sich ein weiterer Ansatz, der diesem überlegen schien. Verfechter der sogenannten klassischen künstlichen Intelligenz, auch Symbol verarbeitende KI genannt, wollten menschliche Intelligenz auf die Verarbeitung abstrakter Symbole herunterbrechen. Subjekte und Objekte werden auf dem Computer durch Symbole repräsentiert. Auch ihre Eigenschaften, Beziehungen oder Ereignisse untereinander werden durch Symbole dargestellt. Das Wissen zu einem Spezialgebiet und Lösungsstrategien gibt der Mensch in das KI-System ein. Durch die Anwendung komplexer Regeln auf eher einfachen Input kann das Programm zu neuen Aussagen gelangen. McCarthy hatte 1958 eine eigene Programmiersprache für die Verarbeitung symbolischer Strukturen entwickelt. Lisp wurde in den folgenden 30 Jahren vor allem in den USA die Standardsprache für KI-Anwendungen. An den Ansätzen der neuronalen und der symbolischen KI wurde gleichzeitig weiter geforscht, doch bis in die achtziger Jahre galt der Symbol verarbeitenden KI weit grösseres Interesse, das auch zu einigen Forschungserfolgen führte. Der von KI-Pionier Joseph Weizenbaum entwickelte erste Chatbot ELIZA etwa griff Ende der 1960er Jahre auf grosse Datenbanken zurück und konnte nach festen Regeln antworten. Das Programm übernahm die Rolle eines Psychotherapeuten, mit dem man sich per Tastatur unterhalten konnte. Die Simulation blieb oberflächlich und der Nutzer konnte leicht herausfinden, dass es sich um einen Computer handelte.

Auf dem Boden der Tatsachen

Der Start von Sputnik im Jahr 1957 veranlasste die amerikanische Regierung die Forschung an maschineller Übersetzung voranzutreiben, um russische wissenschaftliche Arbeiten schneller übersetzen zu können. Man glaubte, ein umfangreiches elektronisches Wörterbuch und die Übertragung einfacher syntaktischer Strukturen wären ausreichend. Die Forscher unterschätzen die Mehrdeutigkeit von Sprache und das nötige Weltwissen zum Erschliessen des Kontextes. 1966 wurde wegen ausbleibenden Erfolges die Förderung akademischer Übersetzungsprojekte durch die Regierung der USA vorerst eingestellt. Auch an anderer Stelle wurden Mittel für die KI-Forschung gekürzt. Die Forscherinnen und Forscher reagierten auf die zahlreichen Fehlschläge, indem sie die Komplexität der natürlichen Welt in sogenannten Mikrowelten künstlich einschränkten. Sie hofften, die Komplexität nach und nach steigern zu können. Doch die Systeme scheiterten bei dem Versuch, Probleme zu erweitern oder komplexere Aufgaben zu meistern. Die berühmteste Mikrowelt war die Blockwelt, die sich aus mehreren festen Blöcken auf einem Tisch zusammensetzte. SHRDLU von Terry Winograd aus dem Jahr 1972 war ein typisches Programm dieser Phase. Das Programm konnte Blöcke nach bestimmten Kriterien anordnen, wozu eine Roboterhand genutzt wurde, die die einzelnen Blöcke greifen konnte. SHRDLU gilt als das erste Programm, das das Verstehen von Sprache mit der Simulation geplanter Handlungen verbindet. Im Beweisen mathematischer Theoreme und Durchführen komplexer Rechenoperationen dem Menschen überlegen scheiterten die Systeme dieser Zeit an für den Menschen vergleichsweise einfachen Aufgaben wie dem Verstehen von Sprache oder dem Bilden von Kategorien für eine Menge von Bildern. Auf Regeln basierende Systeme waren für viele Anwendungsaufgaben nicht geeignet. Die Erfolge blieben weit hinter den Erwartungen zurück. Denn die Fähigkeit des selbstständigen Lernens konnte die klassische KI nicht leisten. In der Folge wurden erneut Forschungsgelder gestrichen und Medien berichteten kritisch. Diese Tiefphase der KI-Forschung hielt bis in die 70er Jahre an.

Zusammenfassung

Auch wenn der Turingtest bis heute nicht gemeistert wurde, hat es seit Turings Aufsatz von 1950 enorme Fortschritte auf dem Gebiet der künstlichen Intelligenz gegeben. In Anbetracht der primitiven Computer und Programmierwerkzeuge, die damals zur Verfügung standen, waren die ersten Jahre der Forschung äusserst erfolgreich. Schon auf der Konferenz in Dartmouth hatten die Begründer der KI-Forschung künstliche Intelligenzen entworfen, die aus umfangreichen und komplexen Datenmengen Konzepte ableiten und verknüpfen konnten. So wundert es nicht, dass der Beginn der KI-Forschung von überzogenen Erwartungen und optimistischen Prognosen geprägt war, auf die zahlreiche Rückschläge und Durststrecken folgten. Heute ist die KI ein viele Lebensbereiche durchdringendes Phänomen. Mehr zu ihrer Entwicklung ab den 1970er Jahren im zweiten Teil unserer kurzen Geschichte der künstlichen Intelligenz.

Literatur & Quellen


 Kostenloses Erstgespräch vereinbaren

comments powered by Disqus

Diese Artikel könnten Sie auch interessieren

Zuverlässige Qualitätssicherung mit KI
23. Juni 2019 - 9 Minuten
Zuverlässige Qualitätssicherung mit KI

Künstliche Intelligenz erobert nach und nach sämtliche Branchen – nicht zuletzt ist gerade die Logistik ein Bereich, in dem KI besonders stark zur Optimierung beitragen kann. Denn die Logistik bietet durch die...

Mehr lesen