Ein Schnellkurs in Künstlicher Intelligenz
Computerprogramme, die genau verstehen, was wir sagen, alleine Autos fahren können, Spam-Mails herausfiltern, komplizierte Krankheiten diagnostizieren, Bücher empfehlen, nervige Alltagsroutinen übernehmen, die Umwelt retten, alle Menschen reicher machen: Die langfristigen Hoffnungen, die sich derzeit mit dem Begriff Künstliche Intelligenz (KI) verbinden, sind enorm. Bisweilen gleichen sie einer quasi-religiösen Erlösungserwartung. Andererseits wird auch oft unterschätzt, welches Potential diese Technik schon mit Blick auf die nähere Zukunft besitzt. „Jede geistige Aufgabe, für die ein Mensch weniger als eine Sekunde braucht, können wir mittels KI wahrscheinlich automatisieren, jetzt oder in der nahen Zukunft“, postuliert zum Beispiel Andrew Ng; er ist einer der großen Experten auf dem Gebiet. Es gebe „keine Institution auf dem Planeten“, die nicht durch Künstliche Intelligenz verbessert werden könne, sagt Amazon-Gründer Jeff Bezos – und meint damit: kein Unternehmen, keine Behörde, im Grunde auch keinen privaten Haushalt.
Auf der ganzen Welt tätige Unternehmen wie Googles Muttergesellschaft Alphabet, das soziale Netzwerk Facebook, der Softwarekonzern Microsoft, der Onlinehändler Amazon, der Handyhersteller Apple, die drei chinesischen Internetunternehmen Baidu, Tencent und Alibaba, der deutsche Allzweckzulieferer Bosch, die großen Autohersteller, Hedgefonds, Banken und Versicherer geben teils Milliarden aus und werben Mitarbeiter an, suchen die größten Talente direkt an den führenden Fakultäten. China, die zweitgrößte Wirtschaftsmacht der Welt, kündigte im vergangenen Jahr einen ambitionierten nationalen KI-Plan an, der auch die Verantwortlichen in Deutschland und den Vereinigten Staaten aufhorchen ließ.
Weiter gilt das Bonmot des verstorbenen Mathematikers John von Neumann: „Es scheint, dass wir die Grenzen dessen erreicht haben, was mit Computertechnologie möglich ist. Allerdings sollte man mit solchen Aussagen vorsichtig sein, denn fünf Jahre später klingen sie oft ziemlich dumm.“ Deswegen wollen wir in diesem Buch keine konkrete Prognose abgeben, wann das erste Auto ganz alleine fährt oder ein Computer über „gesunden Menschenverstand“ so verfügt, dass mit ihm eine Diskussion möglich ist, die sich nicht oder kaum von der mit einem anderen Menschen unterscheidet. Ziemlich sicher scheint indes, dass beides kommen wird.
Tatsächlich und konkret lohnt zunächst einmal ein Blick zurück: Woher kommt der Begriff Künstliche Intelligenz, wie wir ihn heute verstehen? Wer das wissen will, der kommt an John McCarthy nicht vorbei. Er war Mathematikprofessor in den Vereinigten Staaten, am Dartmouth College in Hanover im amerikanischen Bundesstaat New Hampshire. Und er war derjenige, der die Bezeichnung „Künstliche Intelligenz“ erstmals in den fünfziger Jahren des vergangenen Jahrhunderts verwendete. McCarthy schrieb einen Brief an die Rockefeller-Stiftung, weil er Geld wollte für eine Fachkonferenz. Er bekam die Mittel. Die Dartmouth-Konferenz im Sommer des Jahres 1956 gilt heute als die Geburtsstunde der Künstlichen Intelligenz als eigener Disziplin.
Die Teilnehmer in Dartmouth waren wesentlich Fachleute eines Teilgebietes der Mathematik, das sich einfach gesagt damit befasst, Aussagen und Begriffe als Symbole darzustellen und durch bestimmte Transformationen Schlussfolgerungen daraus zu ziehen. Fortschritte in der Computertechnologie eröffneten auf diesem Feld ganz neue Möglichkeiten. Den Weg dafür hatte wesentlich Alan Turing bereitet, der für die britische Regierung Funksprüche der deutschen Wehrmacht entschlüsselte mit dem ersten elektromagnetischen Computer der Welt. Turing schrieb in seinem in der Rückschau unglaublich weitsichtigen Artikel „Computing Machinery and Intelligence“ im Jahr 1950 schon, worum sich der Fortschritt in der Computertechnologie drehen werde: Um das Verständnis natürlicher Sprache, Übersetzungsleistungen, Entscheidungsfindung und eben die mathematische Beweisführung. Seine Prognose bewahrheitete sich – wenn auch einige Jahrzehnte später erst.
An der großen Weltöffentlichkeit ging das damalige Treffen in Dartmouth vorbei. Die Teilnehmer hatten sich zwar viel vorgenommen. Allerdings war die Computertechnologie noch weit entfernt davon, ein zumal in die Konsumgewohnheiten der Menschen integriertes Massenphänomen zu sein – es gab kein Internet, mit dem jeder Mensch verbunden war, kein Smartphone, das jeder ständig dabei hatte, kein Big Data. Und auch keine schlagzeilenträchtigen Warnungen wie sie etwa der verstorbene britische Physiker Stephen Hawking oder der israelische Historiker Yuval Noah Harari aussprachen, die sich und uns fragen, ob gar die Zukunft der Menschheit in Frage steht infolge leistungsfähigerer und intelligenterer Computer – wir werden diese Frage später ausführlicher diskutieren.
Tatsächlich war McCarthys Wortkreation „Künstliche Intelligenz“ auch ein äußerst gelungener Marketing-Coup. „Wenn McCarthy einen eher langweiligen Begriff verwendet hätte, der nicht eine Herausforderung der menschlichen Dominanz und Erkenntnisfähigkeit suggerieren würde, (…) würde Fortschritt auf diesem Gebiet wohl eher als das erscheinen, was es ist – das andauernde Fortschreiten der Automatisierung“, schreibt der amerikanische Computerfachmann und Unternehmer Jerry Kaplan.
Das Interesse an dieser Forschung wuchs infolge der Dartmouth-Konferenz schnell. In den sechziger Jahren trat das amerikanischen Verteidigungsministerium als potenter Geldgeber auf den Plan und finanzierte drei Forschungslabore für Künstliche Intelligenz, eines am MIT in Boston, ein anderes an der Stanford-Universität und ein drittes an der Carnegie-Mellon-Universität in Pittsburgh – alle drei zählen auch gegenwärtig zu den führenden Fachbereichen der Welt. Um etwa den Computer Deep Blue zu kreieren, der im Jahr 1997 den damaligen Schachweltmeister Garri Kasparow bezwang, heuerte IBM drei Forscher der Carnegie-Mellon-Universität an. Das spielerische Kräftemessen zwischen Mensch und Maschine schaffte es naturgemäß immer wieder eher in eine breitere Öffentlichkeit als die wissenschaftlichen Durchbrüche in der Informatik. Publikumswirksam besiegte der IBM-Supercomputer Watson Menschen im Quizformat „Jeopardy“ oder das Computerprogramm AlphaGo der Google-Tochtergesellschaft Deepmind Weltklasseleute im Brettspiel Go oder die Software „Libratus“ vier der besten Pokerspieler des Planeten (auch dazu später mehr).
Nach diesen Wettstreits hat es immer auch Diskussionen dieser Art gegeben: Handelte es sich hierbei wirklich um maschinelle Intelligenz, oder ging es letztlich „nur“ um Rechnen? Chris Bishop, ein leitender KI-Forscher in Diensten des Softwareunternehmens Microsoft, brachte das während eines launigen Vortrages einmal so auf den Punkt: „Jedes Mal, wenn ein Computer eine Aufgabe bewältigen konnte auf einem Level oberhalb dessen, was Menschen können, sagten Leute, okay, letztlich war das aber nicht intelligent, das war nicht wirklich Künstliche Intelligenz. Das brachte manchen Zyniker zu einer neuen Definition von KI, die lautet: Künstliche Intelligenz ist schlicht und einfach stets das, was Computer jetzt noch nicht tun können.“
Andererseits versperrt die Liste der jüngsten Erfolge schlauer Computerprogramme schnell auch einmal den Blick darauf, dass das Voranschreiten der Künstlichen Intelligenz über die vergangenen Jahrzehnte keine klare und stets einseitige Angelegenheit war. Es gab schon mehrere Hochphasen, die von ernüchternden Episoden abgelöst wurden, die Szene nennt sie „AI Winter“. Da erlebten gelegentlich überoptimistische Ankündigungen von Forschern auch mal ein klägliches Rendezvous mit der Realität.
Für die aktuell laufende Hoffnungswelle sind wesentlich drei Dinge verantwortlich: Immenser Fortschritt in der Rechenleistung, gewaltige verfügbare Datenmengen – und eine kleine Gruppe von Experten. Einer von ihnen heißt Andrew Ng. Er war Informatikprofessor an der Stanford-Universität und in den Jahren 2011 und 2012 die treibende Kraft hinter einem Projekt der damals neu geschaffenen KI-Unternehmung Google Brain. Ng und seine Kollegen schalteten 16.000 Prozessoren zusammen und ließen dann ein Computerprogramm zehn Millionen Youtube-Videos mehrere Tage auswerten. Das brisante Ergebnis: Der Computer hat selbst Unterscheidungen gelernt. „Wir haben ihm während des Trainings nie gesagt ‚Das hier ist eine Katze‘“, sagte Jeff Dean danach, der neben Ng federführend an dem Versuch beteiligt war. „Er erfand im Grunde das Konzept einer Katze.“
Dieses Experiment veranschaulicht, worauf sich die neue Hoffnung in der Künstlichen Intelligenz gründet – auf Computern, die selbstständig lernen, anstatt Wissen ganz konkret einprogrammiert zu bekommen. Die Software-Struktur orientiert sich dabei an jener Funktionsweise, die wir dem menschlichen Gehirn unterstellen, deswegen lautet ein wichtiges Schlagwort „künstliche neuronale Netze“ und darum geht...