Darwin Digital – der Weg zur maschinellen Macht
Seit über einem halben Jahrhundert ist die Entwicklung der Menschheit eng verknüpft mit dem Fortschritt in der Informatik. Anders als bei früheren Revolutionen ist die Hardware des Wandels diesmal ausgesprochen unspektakulär. Während Dampfmaschinen, Atomkraftwerke und Ölbohrplattformen gewaltige und bisweilen Furcht einflößende Geräte sind, kommt die Entmaterialisierung der Welt eher profan daher.
Es gibt wenige Orte auf der Welt, an dem digitale Umbrüche mit Händen zu greifen und zu bewundern sind. Eine Besonderheit ist das Computer History Museum. Es liegt in Mountain View, im Herzen des Silicon Valley. Nur einen Steinwurf vom Googleplex, dem Firmenhauptquartier von Alphabet entfernt, wird den großen Pionieren des Informationszeitalters gehuldigt. Stolz werden die größten Nerds der Geschichte und ihre bahnbrechenden Erfindungen präsentiert. Es ist die Kathedrale eines Tals, das seit langer Zeit schon die Zukunft der Zivilisation maßgeblich beeinflusst. Und es ist einer der wenigen Orte zwischen San Francisco und San José, die es tatsächlich zu besichtigen lohnt. Das wichtigste Start-up-Ökosystem der Welt versteckt seine Macht sonst hinter langweiligen Bürofassaden und penibel gemähten Vorgärten.
Doch das Museum besitzt Strahlkraft. Seine Sammlung spannt den Bogen von den ersten manuellen Rechenmaschinen aus dem 19. Jahrhundert bis zu den kleinsten Mikroprozessoren für das Internet der Dinge. »Explore the revolution that has changed our world …«, ist auf einer Tafel zu lesen. Viele Ausstellungsstücke haben ihren Anteil an dieser Revolution. Googles erstes selbstfahrendes Auto zum Beispiel oder der legendäre, holzummantelte »Apple 1« aus dem Jahr 1976. Steve Wozniak, Mitgründer von Steve Jobs, hat ihn mit seinem Spitznamen »Woz« signiert. Gleich um die Ecke ist eine ganze Wand »Moore’s Law« gewidmet. Die eherne Regel der steigenden Rechenleistung ist nicht nur eine treffende Beschreibung exponentiellen Fortschritts, sondern vor allem das Glaubensbekenntnis einer ganzen Industrie.
Gesetzmäßige Sprengkraft
Gordon Earle Moore, einer der Mitgründer des Prozessorherstellers Intel, hatte bereits 1965 vorhergesagt, dass sich die Anzahl von Komponenten auf Chips – vor allem Transistoren – alle zwölf Monate verdoppeln werde. Mitte der Siebzigerjahre korrigierte er seine Voraussage auf zwei Jahre. Doppelt so viele Transistoren implizieren auch einen um den Faktor zwei stärkeren Prozessor. Moore sollte recht behalten. Über Dekaden war sein Gesetz in Stein gemeißelt. Das Ergebnis: Rechenkapazitäten wuchsen immer schneller. Alle zehn Jahre lässt sich eine schier unglaubliche Vertausendfachung der digitalen Leistungsfähigkeit beobachten. Moore’s Law ist bis heute eine der langlebigsten Technologieprognosen aller Zeiten, und das in einer extrem kurzlebigen Branche. Es lieferte nicht nur eine Erklärung der technischen Empirie, sondern definierte zudem den Anspruch an Ingenieure und Entwickler.
Es ist nicht leicht, die Erfolge der Halbleiterindustrie ohne Superlative in Worte zu fassen. 1971 brachte Intel einen Prozessor namens »4004« auf den Markt. Er bestand aus 2300 Transistoren, die mit jeweils rund 10000 Nanometer Abstand voneinander platziert waren – das entspricht etwa der Größe einer roten Blutzelle. Transistoren sind eine Art elektronischer Ein/Aus-Schalter und damit das physische Abbild von Nullen und Einsen. Sie sind das Herz jedes Computers.
2015 vermarktete das Unternehmen seine sechste Produktgeneration, nun unter dem Namen »Skylake«. Die Prozessoren enthielten jetzt rund 1,5 bis 2 Milliarden Transistoren, zwischen denen nur noch rund 14 Nanometer lagen.[15] Zum Vergleich: Ein Haar ist 7000-mal dicker. Für das menschliche Auge sind diese Schaltkreise und Prozessorstrukturen schon längst nicht mehr erkennbar. Doch die Reise in die schier unendliche Winzigkeit geht noch weiter. 2018 bringt der Hersteller AMD den ersten Sieben-Nanometer-Chip auf den Markt.[16] Der Abstand der Komponenten hat sich in drei Jahren also noch einmal halbiert. Das Ergebnis dieser Entwicklung sind Maschinen mit kaum vorstellbarer Leistungskraft.
Heute haben wir mehr Rechenpower in unserer Arbeitstasche, als der gesamten NASA im Jahr 1969 für die Mondmission zur Verfügung stand.[17] Die Basis der Entmaterialisierung des Planeten ist vor allem ein immer stärkerer digitaler Motor. Die andere Seite von Moore’s Law sind immer günstigere Rechner. Für fünf Dollar bekommt man heute die Kapazität des »Cray-1«, des schnellsten Supercomputers der späten Siebzigerjahre. Die Maschine wog fünfeinhalb Tonnen, wurde zum ersten Mal im Forschungslabor von Los Alamos in Betrieb genommen und kostete nach damaligem Wert knapp neun Millionen Dollar. Gerade einmal 75 Dollar-Cents steht dagegen auf dem Preisschild des »Freescale Kinetis KL03«, dem heute kleinsten Mikrocontroller der Welt. Mit seinem Format von 1,6 × 2,0 mm passt er in die Vertiefung eines Golfballs.[18]
Diese extrem billigen Minirechner sind die Basis des Internets der Dinge, in dem alles digitalisiert und vernetzt wird. Egal ob Schiffscontainer, Stromzähler, Mikrowelle, Briefkasten, Krankenhausbett, Weinflasche oder Straßenlaterne: Warum sollte man nicht überall einen Computer einbauen, wenn dieser so gut wie nichts kostet und dazu noch nicht einmal viel Platz wegnimmt. Ingenieuren wird es immer leichter gemacht, eine Welt zu erschaffen, in der alle Gegenstände eine eigene Intelligenz besitzen.
Doch die exponentiell gewachsenen Kapazitäten der Informationstechnologie sind nicht nur auf Produktverbesserungen der Halbleiterindustrie zurückzuführen. Stärkere Chips können ihr Potenzial nur entfalten, wenn ihr umgebendes Computersystem höhere Geschwindigkeiten ermöglicht. Ohne größere Speicher- und verbesserte Kommunikationstechnologien wäre die Wirkung des Moore’schen Gesetzes verpufft. Schnellere Rechner benötigen wiederum mehr Daten, um ihre PS überhaupt auf die Straße bringen zu können. Diese entstehen, wenn immer mehr Programme und Geräte von einer steigenden Zahl an Nutzern verwendet werden. Moores Zwei-Jahres-Regel steht somit nur am Anfang einer technologischen und ökonomischen Wirkungskette, die eine Explosion des Digitalen zur Folge hat.[19]
Vermeintliches Ende
Heute stößt Moore’s Law langsam, aber sicher sowohl an ökonomische als auch physikalische Grenzen. Zum einen wird es immer teurer, Chips herzustellen. Die Kosten eines neuen Halbleiterwerks (genannt Foundry) mit seinen absolut staubfreien Reinräumen verdoppeln sich alle vier Jahre. Auch das hatte Gordon Moore kommen sehen. Der aktuelle Preis liegt bei rund zehn Milliarden Dollar. Für jede neue Chip-Generation sind neue Fertigungsanlagen nötig, sodass sich die Verkleinerung der Komponenten immer weniger lohnt.
Zum anderen bereiten die Naturgesetze Probleme. Die Prozessorstrukturen werden irgendwann so klein, dass einfach kein Platz für weitere Module bleibt. Damit das Moore’sche Gesetz in der aktuellen technischen Logik bis ins Jahr 2050 Bestand haben kann, müssten Ingenieure Bauteile verwenden, die kleiner sind als ein Wasserstoffatom, das kleinste Element in der Natur. Nach allem, was wir wissen, ist dies unmöglich. Immer winziger, immer enger hat also eine natürliche Grenze. Schaltkreise von viel weniger als fünf Nanometer, so die Experten, sind nicht realisierbar.[20]
Die regelmäßige Verdopplung der Transistoren in einem Prozessor wird sich folglich nicht fortschreiben lassen. Allerdings heißt dies nicht, dass damit auch das exponentielle Wachstum der Rechenkapazitäten zum Erliegen kommt. Die Geschichte der Computerwissenschaften ist auch eine Historie der Entwicklungssprünge. Immer wenn die Grenzerträge einer technischen Logik kleiner wurden, zauberten Ingenieure ein neues Ass aus dem Ärmel. Mehrere Paradigmenwechsel hat die Industrie seit ihren Anfängen hinter sich.
Von den elektromechanischen Rechnern der ersten Generation ging die Reise über Relais und Elektronenröhren bis hin zu den integrierten Schaltkreisen der Gegenwart.[21] Aber auch innerhalb dieser Innovationsstufen machte der Fortschritt nicht halt. Den Einzelkernprozessoren folgten zum Beispiel die Mehrkernprozessoren, bei denen die meisten Strukturen mehrfach auf einem Chip vorhanden sind.
Die sprunghafte Vergangenheit der Computer betrifft nicht nur deren Innenleben, sondern die IT-Produktwelt als Ganzes. Nach den Großrechnern kamen die Minicomputer, die wiederum vom Personal Computer abgelöst wurden, der seinerseits dem Cloud-Computing weichen musste. Und jedes Mal waren andere Unternehmen die jeweils tonangebenden Marktführer. IBM dominierte die Welt der Großrechner. Die längst in Vergessenheit geratene Digital Equipment Corporation (kurz DEC) erlangte in den Zeiten der Kleinrechner Bedeutung. Microsofts Macht basiert auf dem PC, während Spieler wie Google und Amazon den Markt für Cloud-Dienstleistungen besetzen. Und schon scheint sich der nächste große Wurf abzuzeichnen.
Heute ist das sogenannte Edge-Computing in aller Munde: In einem großen Computersystem werden entscheidende Rechenvorgänge aus der Cloud heraus an den Ort des Geschehens verlagert. Das ist zum Beispiel in der Fabrik der Zukunft relevant. Dort produzieren Tausende von Sensoren in jeder Millisekunde neue Daten. Es bringt Vorteile, deren Analyse direkt am Rand des Netzwerkes (englisch »edge«), also in den Maschinen selbst durchzuführen anstatt in weit entfernten Servern. Zum einen müssen weniger Daten durch das Netzwerk...