Die ganze Welt aus Null und Eins

Auf die industrielle Revolution vor rund 200 Jahren folgt seit Ende des letzten Jahrhunderts die digitale Revolution. Doch sie wurzelt tief – auch mitten in der menschlichen Natur. Denn selbst der genetische Code der DNA arbeitet digital.

E

r war der wohl letzte Mensch, der die Welt ganz im Blick hatte – der letzte Universalgelehrte: Gottfried Wilhelm Leibniz (1646–1716, siehe links), versiert in Chemie, Physik, Optik, Chronometrie, Historiografie, Geologie, Linguistik, Poesie, Politik, Jurisprudenz und Philosophie, zudem Erfinder der Differenzialrechnung. Und Leibniz verstand die Welt nicht nur, er veränderte sie auch. Im 17. Jahrhundert war Leibniz beim Studium chinesischer Zeichen auf das Binärsystem gestoßen, jenes minimalistische Zahlensystem, das nur aus 0 und 1 besteht. Weniger geht nicht. Aber mehr muss auch nicht sein: Mit diesen zwei Zahlen lässt sich alles berechnen, was sich überhaupt berechnen lässt. Und das ist ziemlich viel. Wirklich alles, glaubte Leibniz: Jede sinnvolle Frage, die ein Mensch stellen kann, lasse sich durch Rechnen beantworten, war der Hofgelehrte der Herzoge in Hannover überzeugt. Sollten künftige Generationen von Gelehrten noch in einen Streit geraten, würden sie sich mit dem Ruf „Calculemus!“ (lateinisch für „Lasst uns rechnen!“) zusammensetzen und die Angelegenheit nach den Gesetzen der Logik und Arithmetik klären.

Rechnen für den Weltfrieden – Leibniz’ Ideen scheinen im Rückblick fast grenzenlos optimistisch. Doch ebenso kann man heute sagen, dass die Wirklichkeit seine Vision noch übertreffen sollte. Unsere heutige Lebenswelt ist digital. Die Nachrichten, der Kontakt mit Freunden, Musik, die Ergebnisse unserer Arbeit: Das alles und noch mehr besteht aus Nullen und Einsen. Die meisten Menschen nutzen täglich, oft sogar stündlich digitale Geräte: das Handy, den Laptop, das Auto mit Bordcomputer. Fast jede denkbare Information ist heute digital im Internet zu finden. Die Menschheit produziert heute in jeder Sekunde mehr Daten als früher in Jahrtausenden. Der Schlüssel dazu ist die Digitalisierung.

Rechnen für den Weltfrieden

Leibniz war womöglich der erste Mensch, der das gewaltige Potenzial der Digitalisierung vorausahnte. Und er beließ es nicht bei Ahnungen. Er baute eine Rechenmaschine aus Walzen, Kurbeln, Skalen und Zahnrädern in einer Holzkiste – die erste Rechenmaschine, die mit dem Binärsystem funktionierte. Daher kann sie als die Mutter der heutigen Computer gelten. Es sei „ausgezeichneter Menschen unwürdig, gleich Sklaven Stunden zu verlieren mit Berechnungen“, fand Leibniz. Maschinen sollen das Rechnen übernehmen, damit der menschliche Erfindergeist freien Lauf hat. Allerdings war seine eigene Maschine nicht mehr als ein erster zaghafter Schritt in diese Richtung. Sie konnte nicht mehr als ein paar elementare Aufgaben auf Grundschulniveau lösen, dafür fehlte zunächst präzise Metallbearbeitung. Als es die aber gab, wurden mehr als zweihundert Jahre lang Rechenmaschinen nach Leibniz’ Vorbild gebaut.

„Indem Gott rechnet und seinen Gedanken ausführt, entsteht die Welt.
… Gott freut sich der ungeraden Zahlen.
… Ohne Gott (=1) ist nichts (=0).“

Für den nächsten Schritt bedurfte es eines weiteren Genies: Charles Babbage (1791–1871), ein etwas kauziger englischer Mathematiker und Ökonom, der den legendären Lucasischen Lehrstuhl für Mathematik am Trinity College, Cambridge, innehatte – einst der Posten von Isaac Newton, später von Paul Dirac und Stephen Hawking. Im Unterschied zu den anderen Koryphäen war Babbage jedoch überaus praktisch veranlagt. Er beschloss, „sein Bestes zu tun, die Welt als weiseren Ort zurückzulassen, als er sie vorgefunden hatte“, reiste durchs frisch industrialisierte England, um sich im Maschinenbau auf den neuesten Stand zu bringen, und entwickelte eine digitale Rechenmaschine, die wirklich nützlich war: die „Analytical Engine“ (analytische Maschine). Sie sollte die damals noch üblichen Logarithmentafeln und Rechenschieber ersetzen. Die Analytical Engine war der erste universelle Computer, sie war prinzipiell geeignet für jede erdenkliche Rechenaufgabe. Wie heutige Computer war sie programmierbar und hatte getrennte Speicher- und Recheneinheiten.

Sie war ein wahres Monster aus Messing, mit einem Gewicht von 15 Tonnen, einem Volumen von 4,5 Kubikmetern und 25.000 Einzelteilen. Allerdings nur auf dem Papier: Babbage fing zwar an, sie zu verwirklichen, wurde aber nie fertig. Seine Konstruktionszeichnungen hatten eine Fläche von 40 Quadratmetern. Bis heute hat niemand die Analytical Engine gebaut.

Rechnen ist nicht die einzige Stärke von 0 und 1

Charles Babbage hatte demonstriert, dass Leibniz’ Vision nicht nur das müßige Gedankenspiel eines Philosophen ist. Doch auch seine Maschine blieb ein Versprechen für die Zukunft. Die „Times“ würdigte ihn in ihrem Nachruf als „einen der regsten und originellsten Denker“, befand allerdings, dass er vor allem wegen seines skurrilen Feldzugs gegen Straßenmusiker in Erinnerung bleibe. Seine bahnbrechende analytische Maschine schrumpfte zur Fußnote.

So richtig an Schwung gewann die digitale Revolution erst im 20. Jahrhundert. Der Zweite Weltkrieg kann als der erste Krieg gelten, der durch digitales Rechnen mitentschieden wurde: Im Auftrag des britischen Militärs knackte der Mathematiker Alan Turing (1912–1954) mit eigens entwickelten elektromechanischen Computern, „Bomben“ genannt, den Funkcode der deutschen U-Boot-Flotte, die dadurch bei Angriffen auf die Schiffe der Alliierten im Atlantik ihr Überraschungsmoment verlor – die Konvois kamen wieder durch. Optimisten könnten darin die von Leibniz prophezeite friedensstiftende Wirkung der Rechenmaschinen erkennen. Dabei ist allerdings fraglich, ob es friedlich weitergeht. Künftige Kriege werden womöglich ganz im Digitalen ausgefochten, die Armeen der Welt rüsten sich für den „Cyberwar“.

Nach dem Zweiten Weltkrieg traten die Computer auch im Zivilen ihren Siegeszug an. Im Jahre 1947 wurde an den Bell Labs der Transistor erfunden – der Beginn der Ära der Großrechner, die bis in die 1970er Jahre dauerte. Der berühmteste und am weitesten verbreitete Großrechner war das System/360 von IBM, das in vielen Unternehmen und Forschungseinrichtungen kaufmännische und wissenschaftliche Rechenaufgaben erledigte. In seiner letzten und leistungsstärksten Ausgabe von 1971 hatte es einen Arbeitsspeicher von vier Megabyte. Das ist kleiner als die allermeisten iPhone-Apps von heute. Computer waren noch immer teure und seltene Spezialwerkzeuge. Als Massenprodukt konnte sie sich so gut wie niemand vorstellen. Berühmt geworden ist das Zitat des IBM-Chefs Thomas J. Watson vom Beginn der Großrechner-Ära: „Ich glaube, dass es auf der Welt einen Bedarf von vielleicht fünf Computern geben wird.“

In den 1980er Jahren brach die Zeit der Personal Computer an – und strafte Thomas J. Watson Lügen. Millionen Menschen legten sich einen Computer für zu Hause zu, vor allem, um darauf zu schreiben und zu spielen. Allein vom Commodore 64 wurden zwischen 1982 und 1994 17 Millionen Stück verkauft. Und das war nur der Anfang. Heute leben wir in der Petaflop-Ära: Die schnellsten Computer schaffen mehr als tausend Billionen Rechenoperationen pro Sekunde. Ein gängiges Smartphone von heute rechnet tausendmal schneller als die PCs der 1980er Jahre.

Mit Nullen und Einsen lässt sich gut rechnen, aber das ist nicht ihre einzige Stärke. Mit ihnen lässt sich auch wunderbar kommunizieren – und diese Aufgabe war es, mit der ihr globaler Siegeszug begann. Das berühmte Morse-Alphabet mit seinen Strichen und Punkten ist nichts anderes als eine Binärsprache. In den 1830er Jahren, als die Telegrafie zum Massenmedium avancierte, wurde es zu der Schrift, in der die Welt sich verständigte. Schnelle Informationsübermittlung wurde zum entscheidenden Faktor für wirtschaftlichen Erfolg. Sie befeuerte die Aktienbörsen und ließ internationale Konzerne wachsen.

Die Telegrafie ist Vergangenheit, doch die digitale Kommunikation ist stärker denn je. Das Internet, die Handynetze und die Telefonfestnetze: Praktisch unsere gesamte Fernkommunikation ist digitalisiert. In den 1980er Jahren waren Internet und Mobilfunknetze noch Schattengewächse. Sämtliche Internetnutzer passten in ein Verzeichnis von der Größe eines Telefonbuchs. Heute gehören Handy und DSL zur digitalen Grundversorgung. Im Jahr 2015 floss ungefähr ein Zettabyte an Daten durch das Internet – das sind 1.000.000.000.000.000.000.000 Byte (21 Nullen). Zum Vergleich: Alle jemals von Menschen ausgesprochenen Wörter umfassen schätzungsweise nur ein Zwanzigstel dieses Datenvolumens. Die Menschheit hat sich digitalisiert.

Information ist heute das wichtigste Wirtschafts- und Kulturgut. Viele erfolgreiche Produkte bestehen nicht mehr aus Atomen, sondern aus Bits und Bytes. Sie lassen sich lichtschnell vervielfältigen und über den Globus schicken. Aber was ist das überhaupt: Information? Der erste Wissenschaftler, der dieser Frage systematisch nachging, war der brillante amerikanische Mathematiker Claude Shannon (1916–2001), der auf den Gängen der Bell Labs gleichzeitig Einrad fuhr und jonglierte – zu jener Zeit, als dort der Transistor geboren wurde. Im Alleingang entwickelte Shannon die Informationstheorie. Mit ihr wurde Information zu einer handfesten physikalischen Größe wie Masse oder Länge. Shannon definierte Information als eine Eigenschaft (oder den Gehalt) einer Folge von Bits. Er zeigte, wie man Information „verdünnen“ kann und bis zu welcher Grenze sie sich „verdichten“ lässt. Shannons Theorie setzt den Rahmen für die wichtigsten Technologien des Internets, zum Beispiel für Verschlüsselung und Datenkompression. Seit Shannon mit ihr den Begriff der Information wissenschaftlich präzise fasste, ist klar: Information ist digital.

Ist die Welt sogar im Innersten digital?

Entscheidend für den Erfolg des Digitalen ist der darin steckende Abstraktionsschritt: Man gewinnt Eindeutigkeit, indem man nicht so genau hinschaut. „0“ bedeutet null, auch wenn der Kringel nicht perfekt ist; ein Stromschalter steht konstant auf „ein“, auch wenn die Spannung etwas schwankt. Wer allerdings glaubt, diesen Abstraktionsschritt habe der Mensch der Natur voraus, der irrt sich um mindestens ein paar Millionen Jahre: mindestens so lange, wie die Natur schon ihre wichtigsten Daten, die Erbinformation, in DNA-Molekülen speichert. Die DNA ist ein digitales Medium, genau wie Chips und DVDs, nur dass die Information in Basenpaaren steckt, nicht in Transistoren oder optischen Spuren. Und genau wie mit elektronischen oder optischen Schaltkreisen kann man auch mit DNA rechnen. Forscher haben im Labor DNA-Computer gebaut, die jede beliebige Rechenaufgabe lösen können. Zwar sind sie deutlich langsamer als ihre Verwandten aus Silizium, aber dabei geht es nicht um Geschwindigkeit, sondern ums Prinzip: Die Natur kann digital denken.

Es gibt sogar Wissenschaftler, die überzeugt sind, dass die Welt in ihrem Innersten digital ist. Der britische Physiker und Mathematiker Stephen Wolfram möchte eine „neue Art von Wissenschaft“ etablieren, die nicht auf Gleichungen beruht, sondern auf Computerprogrammen. Wolfram stellt sich das Universum als einen einzigen, gewaltigen Digitalcomputer vor: Die Materie ist die Hardware, die Naturgesetze sind die Software. Wolframs Hypothese hat sich unter seinen Kollegen noch nicht durchgesetzt. Aber sollte sie sich als wahr erweisen, wäre es die grandiose Vollendung der digitalen Revolution.

Quelle: „Gemeinsam – Mehr als nur Zahlen aus 50 Jahren DATEV eG“