Thermodynamik auf der Datenautobahn

Was ist Information?

d'Lëtzebuerger Land du 21.10.2016

Wir leben im „Informationszeitalter“, sind Mitglieder der „Informationsgesellschaft“ und nutzen „Informationstechnologien“. Das Internet wurde während der Dotcom-Euphorie in den 1990-er Jahren oft der „Information Highway“ genannt. Aber was genau ist Information?

Es gibt dafür Erklärungsansätze aus verschiedenen Richtungen. Psychologie und Linguistik beschreiben, unter welchen Bedingungen ein Informationsaustausch Sinn ergibt. Die Nachrichtentechnik erklärt, wie Informationskanäle beschaffen sein müssen, um zur Übertragung von Informationen dienen zu können. Aber dabei wird Information als etwas Abstraktes aufgefasst. Physiker zeigen nun, dass Information offenbar real ist, etwas Physikalisches. Ein Physiker-Team der Universität Luxemburg um Massimiliano Esposito entwickelte eine Idee für eine winzige Maschine, die allein durch die Kraft ihres Wissens angetrieben wäre und Metall abkühlen würde. Vor einem Jahr wurde sie in einem Labor in Finnland aufgebaut und hat tatsächlich funktioniert.

Dass Erklärungen über die Natur der Information aus der Thermodynamik kommen, kann überraschen. Dieser Zweig der Physik beschreibt, wie Wärme aus anderen Energien gewonnen und in diese umgewandelt wird. Dabei wird das „mikroskopisch Kleine“ betrachtet: Atome und Moleküle, also Verbindungen von Atomen. In einer Materie, ganz gleich ob fest, flüssig oder gasförmig, sind die Moleküle ständig in Bewegung, schwirren herum. Je höher die Temperatur dieses „Systems“ ist, desto schneller bewegen die Moleküle sich.

Warum das etwas mit Information zu tun haben soll, ist nicht gerade offensichtlich. Doch der Wärmefluss von einem Objekt höherer Temperatur zu einem mit niedrigerer Temperatur ist die grundlegendste Ansicht, die wir Menschen über die Natur und das Universum haben. Physiker sagen sogar, der Wärmefluss sei die Grundlage unseres Verständnisses von Zeit: Dass ein Vorgang zu einem bestimmten Moment beginnt und irgendwann beendet ist, die Zukunft auf die Vergangenheit folgt, werde durch nichts besser verdeutlicht als durch den Wärmefluss.

Das ist interessant, aber macht es Information zu etwas Physikalischem? „Nehmen wir an, ein System aus Molekülen steht in Kontakt mit seiner Umgebung“, sagt Massimiliano Esposito. „Bestand der Kontakt lange genug, haben System und Umwelt dieselbe Temperatur. Man sagt dann, es besteht ein Gleichgewicht.“ Wie der Löffel, der in eine Tasse mit heißem Kaffee gesteckt wurde, nach einer Zeit die gleiche Temperatur erreicht hat wie der Kaffee. Aber: Löffel und Kaffee sind die „Makroebene“. Auf der Mikroebene schwirren im Löffel wie im Kaffee die Moleküle nach wie vor herum. „Doch weil kein Wärmeaustausch mehr stattfindet, kann man sagen, die Wahrscheinlichkeit, dass die Moleküle sich in die eine Richtung bewegen, ist ebenso groß wie die Wahrscheinlichkeit einer Bewegung in die andere Richtung. Es finden zwar nach wie vor Bewegungen statt“, sagt Massimiliano Esposito, „aber netto gibt es keine mehr, weil die Wahrscheinlichkeiten einander kompensieren. In dem Fall ist die Information gleich null.“

Leicht zu schlucken ist das nicht. Das Gleichgewicht bezeichnet man auch als „Entropie“. Früher war Entropie ein Synonym für Unordnung. Gemeint war damit, dass alle Moleküle sich rein zufallsabhängig bewegen und nicht „gerichtet“ auf eine Ordnung hin. Heute sagt man, die Entropie sei eine „Erwartung“, dass eine gerichtete Bewegung doch einsetzten könnte, falls das Gleichgewicht wieder verlassen wird.

Um von hier aus zur Information zu gelangen, müsse man sich „metastabile Zustände“ vorstellen, sagt Massimiliano Esposito: ein Gleichgewicht, dass nur eine Zeitlang herrscht, und sich ändern wird. Ein Gedankenexperiment dazu enthält eine mikroskopisch kleine Landschaft mit zwei nebeneinander liegenden Mulden. Ein einzelnes Molekül, dessen Bewegung rein zufallsabhängig ist, kann in die eine, aber ebenso gut in die andere Mulde fallen. Die statistische Wahrscheinlichkeit dafür ist jeweils 0,5. Denn wüsste man genau, dass das Molekül in eine ganz bestimmte Mulde fiele, wäre die Wahrscheinlichkeit dafür gleich eins, während es ganz unwahrscheinlich – also null – wäre, dass das Molekül in die andere Mulde geriete.

„Ist in dem Beispiel die Wahrscheinlichkeit, dass der eine oder andere Fall eintritt, jeweils dieselbe, ist die Information ebenfalls null“, sagt Massimiliano Esposito. „Erst wenn das metastabile Gleichgewicht beendet, die Bewegung des Moleküls gerichtet wird und es wahrscheinlicher wird, dass es in eine Mulde fällt, fließt Information.“ Was dann tatsächlich auch intuitiv verständlich wird: Es handelt sich um eine 0-1-Information, um ein Bit.

Schon in den 1940-er Jahren demonstrierte der US-amerikanische Ingenieur Claude Shannon, dass die minimale Energie, die nötig ist, um ein Bit Information in einem Draht zu übertragen, so groß ist wie k∙T∙ln2. Dabei ist T die Temperatur im Draht. Der natürliche Logarithmus von 2 steht für die zwei erreichbaren Mikrozustände 0 und 1, die einem Bit (2 hoch 1) auch in dem Beispiel der beiden Mulden entsprechen. k ist die Boltzmann-Konstante, eine Naturkonstante für das Verhältnis von Energie und Temperatur.

Dass schon Shannon Information und Wärme zusammendachte, fällt natürlich auf. „Die Physiker besaßen aber lange nicht die richtigen Gleichungen, um diesen Zusammenhang zu verallgemeiern“, erklärt Massimiliano Esposito.

Denn es ist über 150 Jahre her, dass Max Planck den Zweiten Hauptsatz der Thermodynamik aufstellte. Das ist jenes ausgesprochen eherne Gesetz. dem zufolge Wärme nur von einem wärmeren zu einem kälteren Objekt fließen kann – es sei denn, man setzt zusätzliche Arbeit ein, eine auf einen Zweck hin gerichtete Energie.

Doch 1867 stellte James Clark Maxwell ein Gesankenexperiment an, das den Zweiten Hauptsatz in Frage stellte: In zwei nebeneinander liegenden Kisten befindet sich ein Gas mit derselben Temperatur, es herrscht also ein Gleichgewicht. Was wäre, wenn ein „Dämon“, ein schlaues Wesen, die Bewegungen sämtlicher Moleküle in beiden Kisten kennt? Und wenn er über eine winzig kleine Tür zwischen beiden Kisten die sich schneller bewegenden Moleküle in die eine Kiste sortiert und die sich langsamer bewegenden in die andere? Dann würde die eine Kiste nach und nach wärmer, die andere nach und nach kälter – ohne das Arbeit verrichtet würde. Das Aussortieren geschähe nur, weil der Dämon über Informationen verfügt.

„Damit gewinnt Maxwells Dämon Energie aus den Informationen, die er über das System hat“, sagt Massimiliano Esposito. „Man könnte mit dieser Energie ein Auto antreiben – falls Maxwell Recht hätte.“

Doch das käme einem Perpetuum mobile nahe. Dieser Widerspruch zum Zweiten Hauptsatz der Thermodynamik beschäftigte die Physiker jahrzehntelang und löste viele weitere Gedankenexperimente aus. Wie etwa das des in Luxemburg geborenen Gabriel Lippmann, der sich Anfang des 20. Jahrhunderts fragte, ob eine kleine Maschine mit einem Flügelrad, die in eine Kiste mit einem Gas gesetzt wird, aus diesem womöglich Arbeit herausziehen könne. Lippmann stellte sich vor, das Flügelrad wäre an ein Getriebe mit einer Ratsche angebaut, so dass das Rad sich nur in eine Richtung drehen kann und von Molekülen, die in eine andere Richtung schwirren, nicht zurückbewegt wird. Lippmanns Idee erregte viel Aufmerksamkeit, es wurde aber bewiesen, dass die Extraktion von Arbeit aus einem einzigen Behälter mit Gas nicht möglich sein kann.

Dagegen zeigte Leo Szilard 1929, dass sich Arbeit aus einem System ziehen lassen könnte, wenn ein einziges Molekül in einer Kiste voller Gas gegen eine Trennwand drückt, die wiederum ein schlauer Dämon in die Mitte der Kiste gesetzt hat. Beoachtet der Dämon das Treiben des Moleküls, gewinnt er daraus eine Information 0 oder 1. Szilard berechnete, dass diese Information bei Raumtemperatur 3∙10-21 Joule an Arbeit entspricht, ungefähr so viel, wie nötig ist, um ein Bakterium um einen Nanometer anzuheben.

32 Jahre später meinten Rolf Landauer und Charles Bennett, zwei Forscher bei IBM, der Dämon müsse sein Wissen über die Bewegung des Moleküls irgendwo speichern. Dieser Speicher könne nicht unendlich groß sein und müsse irgendwann wieder gelöscht werden. Bennett berechnete, dass die zum Löschen nötige Arbeit mindestens so groß ist wie die, die der Dämon aus dem System zieht. Damit schien der Zweite Hauptsatz der Thermodynamik gerettet. Doch solange der Speicher nicht voll ist, könnte der Dämon, wie es aussieht, dennoch allein über sein Wissen Arbeit aus dem System ziehen.

„Entscheidend ist Folgendes“, sagt Massimiliano Esposito. „Jedes thermodynamische System hat eine innere Energie, ein Energiepotenzial, das der Bewegung der Moleküle entspricht. Will man das System von einem Zustand in einen anderen versetzen, muss man nicht nur Arbeit verrichten, die die innere Energie ändert, sondern muss auch die Entropie ändern. Das ist genau jene Entropie, die bereits Shannon mit k∙T∙ln2 beschrieben hat. In einem System mit mehr als einem Molekül summiert die Entropie sich um jedes Molekül.“

Dass dies für jedes System gilt, wurde erst vor acht Jahren demonstriert. Daraus folgen interessante Dinge. Zum Beispiel kann leerer Speicherplatz als eine Art „Treibstoff“ aufgefasst werden, eine Idee, die 2012 formuliert wurde. Dass an ihr etwas dran ist, demonstrierten Physiker der Universität Aalto in Finnland vor einem Jahr an einer Apparatur, deren Aufbau Massimiliano Esposito und sein Team vorgeschlagen hatten.

Dabei werden zwei „Quantenpunkte“ benutzt, die jeweils ein Elektron für kurze Zeit gefangen halten können – ein metastabiler Zustand. Der eine Quantenpunkt verkörpert das System, der andere den Dämon. Der Dämon hält ein Elektron eine Zeitlang fest. Erreicht ein anderes Elektron das System, stößt es durch die Wirkung der Elektrostatik das Elektron des Dämons ab, welches dadurch den Quantenpunkt des Dämons verlässt. Dieser Vorgang nimmt dem System-Elektron ein wenig von seiner inneren Energie, denn um den Quantenpunkt zu verlassen, muss das Elektron einen Teil davon verausgaben. Dadurch wird dieses Elektron kälter, als es vorher war. Im Labor wurde daraus ein ganzer Prozess. Innerhalb einer Sekunde gelangten Millionen Elektronen in den Draht, der zum System-Quantenpunkt führte, und kühlten diesen um ein Tausendstel Grad ab. Der Draht zum Dämon-Quantenpunkt wurde gleichzeitig wärmer.

Bemerkenswerterweise ist die Verbindung der Elektronen mit dem Quantenpunkt so „lose“, dass keine Arbeit nötig ist, um sie endgültig zu lösen. Die Temperaturänderung wird nur durch die Entropieänderung verursacht, den Austausch von Information. Information ist demnach ein physikalisches „Ding“.

„Es wird trotzdem noch eine Weile dauern, bis die Physiker diese Zusammenhänge genauer beschrieben haben und wissen, wie weit sie verallgemeinert werden können“, sagt Massimiliano Esposito. „Für vieles haben wir schon elegante Gleichungen, aber für anderes noch nicht.“ Ist zum Beispiel die Einwirkung von Temperatur groß, wird alles komplizierter. Eine Herausforderung ist auch, die thermodynamische Information mit der Quantentheorie zusammenzubringen: Ihr zufolge kann ein Elektron verschiedene Zustände gleichzeitig einnehmen, was unter anderem die Grundlage für Quantencomputer bildet, die nicht nur mit 0-1-Zuständen rechnen wie die klassischen binären Maschinen.

Der Entropie wegen, wird es auch weiterhin kein Perpetuum mobile geben können. „Wenn Information eine energetische Entsprechung hat, dann hat sie sozusagen einen Kostenpunkt“, sagt Massimiliano Esposito. Das stellen Computerwissenschaftler schon seit längerem fest, wenn immer aufwändigere Rechenoperationen immer mehr Energie verbrauchen und dabei immer mehr Wärme als „Nebenprodukt“ erzeugt wird, die die Chips gefährlich aufheizt. „Schon macht man sich Gedanken darüber, welche Rechenoperationen gezielt ungenauer gemacht werden können, um Energie zu sparen. Das geht genau in die Richtung, Information über die Entropie als Energie zu verstehen.“

Hochinteressant sei es auch, sich diese Zusammenhänge auf die Biologie ausgedehnt vorzustellen: „Zwischen den Zellen jedes Organismus findet ein ständiger Signalaustausch statt, der chemisch erfolgt. Man weiß zum Beispiel, dass Zellen ‚wahrnehmen‘, wie sie Energie beziehen können, um funktionsfähig zu bleiben.“

Man könne sich auch philosophische Fragen stellen: „Leben, das sind Moleküle in hoch strukturierten Zuständen. Ein metastabiler Zustand folgt auf den nächsten. Organismen benötigen Energie, um am Leben bleiben zu können; sterben sie, kehren sie ins Gleichgewicht zurück, der Tod ist ein Zustand des Gleichgewichts.“ Die Frage beantworten zu wollen, auf welche Weise der hochstrukturierte Zustand Leben aufrecht erhalten wird, und welche Rolle die Thermodynamik, die Entropie und die Chemie dabei spielen – davon sei die Wissenschaft aber noch weit entfernt. „Dazu“, sagt Massimiliano Esposito, „werden wir noch ganz andere Gleichungen benötigen.“

Peter Feist
© 2024 d’Lëtzebuerger Land