HOME

ZUR FÃœNFTEN SENDUNG,
DIE EIGENTLICH DIE ERSTE WAR.
Unstrukturiert, mangelndes Vertrauen, Langeweile,
Aufgeregtheit, Chaos im Kopf.

Von CHAOS, CHAOSTHEORIE
und CHAOTISCHEN SYSTEMEN

Ursprünglich stammt das Wort CHAOS aus dem Griechischen und bedeutet: Gähnender Schlund, Abgrund, klaffende Leere

Bereits in der Antike erfuhr der Begriff jedoch eine (philosophische) Umdeutung, etwa unter Anaxagoras und Plato: Urstoff, gestaltlos, ungeformt.

Im heutigen Alltag bedeutet Chaos in etwa: Durcheinander, Wirrwarr, Unordung; oft ist der Begriff negativ besetzt. "Chaot" ist wohl meist als Schimpfwort gemeint.

Verwandte Worte: "Gas" geht auf J.v.Helmont zurück (ca. 1600). Tatsächlich führte er dieses Wort als Überbegriff für luftartige Stoffe ein, in direkter und berechtigter Anlehnung an Chaos. Vom griechischen chaskein leitet sich unser Wort Gähnen ab, ein Verweis auf die ursprüngliche Bedeutung des Wortes.

Chaos als wissenschaftlicher Begriff

Eher zufällig und nicht ganz ernst gemeint wurde das Wort zuerst in der Mathematik eingeführt. J. Yorke veröffentlichte 1975 einen Artikel: "Periode Three implies Chaos". Dort untersuchte er Eigenschaften von Abbildungen eines Intervalls auf sich selbst, wobei nichtperiodisches Verhalten entstand (bei ganz bestimmten Anfangswerten). Eben diese starke Abhängigkeit mathematischer (und später auch physikalischer) Systeme von ihren Anfangswerten wurde ab dieser Zeit als "chaotisch" bezeichnet.

Abhängigkeit von Randbedingungen

Ein Charakteristikum chaotischer Systeme ist also ihre Empfindlichkeit gegen Veränderung der Anfangs- oder Randbedingungen; oft schlägt regelmäßiges Verhalten plötzlich in unregelmäßiges um. Bereits 1963 hatte E. Lorenz dieses Verhalten am Beispiel mathematischer Klimamodelle gefunden: Der Flügelschlag eines Schmetterlings im Golf von Mexiko könnte das Wetter in Europa beeinflussen, meinte er, um diese Abhängigkeit einprägsam darzustellen ("Schmetterlings-Effekt"). Wir fragen uns heute: Könnte ein griffiger Jodler in Gmunden dann nicht auch ein Sturmtief vor Amerika verursachen? Hat dies noch etwas mit dem Ur-Chaos als Abgrund, Leere zu tun? Ja, dieses entstand und entseht in den Köpfen der Wissenschaftler, denn lange als sicher geltende Phänomene wurden plötzlich unsicher, nicht mehr vorhersagbar!

H. Poincare hatte 1889 die langfristige Stabilität der Planetenbahnen untersucht. Er fand heraus, dass sich winzige gegenseitige Bahnstörungen aufschaukeln und zu drastischen Veränderungen führen könnten. Obwohl er diese Angelegenheit dann nicht weiterverfolgte, da er vor den Konsequenzen zurückschreckte, spricht man heute von Poincare-Szenarien: Die Entwicklung eines Systems vom geordneten zum chaotischen Verhalten.

Noch einfacher als unser Sonnensystem ist das Doppelpendel: Am Ende eines Pendels hängt ein zweites. Wird es nur leicht gestoßen, schwingt es regelmäßig. Mit stärkerer Anregung werden die Schwingungen unregelmäßiger, es beginnt wild herumzuschwingen. Trotz einfacher Gesetze, die ja nach wie vor gelten, ist dieses Verhalten nicht mehr berechenbar. Man spricht vom "deterministischen" Chaos: Die Naturgesetze gelten, trotzdem ist die Entwicklung des Systems nicht mehr vorhersagbar. Minimalste Unterschiede in den Startbedingungen schaukeln sich nach wenigen Schwingungen auf.

Vorhersagbarkeit

Gerade diese Eigenschaft zeichnet die Naturwissenschaften aus, insbesondere die Physik. Ein Flugzeug fliegt, ein Auto fährt, eine gestoßene Billardkugel trifft ihr Ziel (meistens). Wiederholt man einen Vorgang unter gleichen Bedingungen, so erhält man ein gleiches Ergebnis.

Kausalitätsprinzip: Aus gleichen Ursachen entstehen gleiche Wirkungen.

Genaugenommen kann man niemals exakt die gleichen Bedingungen wiederherstellen, aber ähnliche. Doch auch hier soll gelten: Ähnliche Ursachen ergeben ähnliche Wirkungen. Dies wird als "starke" Kausalität bezeichnet, von der die "schwache" (gleich à gleich, siehe oben) einen idealen Spezialfall darstellt.

Zum Beispiel schwingt ein normales Pendel, etwas stärker oder schwächer angestoßen, im Prinzip ähnlich; die Bahn ist berechenbar. Ein Flugzeug wird zwar nicht immer ganz gleich landen, aber runter kommt es immer. Poincare und Lorenz aber fanden Prozesse, die bei ähnlichen Ursachen völlig verschiedene Wirkungen haben können! Lange Zeit wurden diese als Kuriositäten angesehen, ignoriert oder verdrängt, passten sie doch gar nicht in das Konzept der Naturwissenschaften. Die Chaostheorie erkannte jedoch: Solche Fälle stellen den Normalfall dar, nur: oft tritt erst nach sehr langer Zeit das chaotische Verhalten zutage!

Zum Beispiel: Billard-Stöße werden oft mit bewundernswerter Exaktheit ausgeführt; auch nach mehreren Kollisionen trifft die Kugel ihr Ziel. Nehmen wir an, ein Zuschauer steht einen Meter vom Tisch entfernt. Dann bewirkt jedoch seine minimale Gravitationskraft auf die Kugeln, dass deren Stoßverhalten mit der 9. Karambolage völlig unberechenbar wird! Die Kausalität gilt also nur für die ersten Stöße.

Ein Gas - wir erinnern uns, das Wort stammt ja von Chaos ab - kann man sich als ungeheure Menge von sehr kleinen Kugeln vorstellen, die dauernd Stöße ausführen (jedes Teilchen Milliarden pro Sekunde!). Hätte man auch einen bekannten Ausgangszustand, nach kürzester Zeit kann man für ein einzelnes Teilchen überhaupt keine Aussage mehr treffen. Allerdings arbeitet man hier mit statistischen Methoden, wodurch Vorhersagen im Großen wieder möglich werden.

Auch für unser Planetensystem gilt: Die nächsten Millionen, vielleicht Milliarden von Jahren bleibt es stabil - aber dann? Diese Frage ist übrigens bis heute nicht geklärt - Poincare zeigte nur, dass Chaos eintreten kann, nicht muss. Die Chaostheorie untersucht also Systeme, deren Verhalten (zumindest langzeitlich) nicht vorhersagbar ist wegen seiner Empfindlichkeit gegenüber der Anfangsbedingungen. Insbesondere erforscht sie die Wege, die zum Chaos führen. Ein typischer Ablauf wäre:

Ordnung (einfache Gesetze) à (deterministisches) Chaos à (völlige) Unordnung

"Deterministisch" chaotisch heißen Zustände, die zwar den Naturgesetzen gehorchen, aber trotzdem nicht vorhersagbar sind. Sie müssen von solchen mit "wirklichem" Chaos (im alltagssprachlichen Sinn) unterschieden werden. Diese werden üblicherweise als Unordnung (disorder) bezeichnet, um sie vom wissenschaftlichen Chaosbegriff zu trennen. Der wirkliche Chaot, ein "Unordner"?

Beispiel: Das gesunde menschliche Herz befindet sich in einer Art deterministisch chaotischem Zustand. Die Rhythmen schwanken ständig etwas - ein krankes oder gefährdetes Herz hingegen erkennt man oft an einem zu regelmäßigen EKG! Das gefürchtete Kammerflimmern wiederum stellt Unordnung dar, vielleicht kann die Chaostheorie einmal helfen, die Ankündigung dieses Zustandes aus dem EKG diagnostizierbar zu machen.

Einfachheit und Komplexität

Wir erleben eine unglaubliche Vielfalt um uns (und in uns) - läßt sich diese Komplexität auf einfache Prinzipien, Ideen oder Regeln zurückführen? Die modernen Naturwissenschaften bejahen diese Frage und konkretisieren die Antwort: Komplexe Phänomene oder Objekte werden aus einfacheren erklärt, die man auf tieferen Ebenen sucht (Reduktionismus). Wenn die Leber ein Bier verarbeitet, dann sind ihre Zellen aktiv. Deren Tätigkeit und Funktion wird wiederum von der DNS gesteuert, einem Riesenmolekül, das aus einer großen Anzahl von Atomen besteht. Auch diese haben eine innere Struktur, welche ihre Bindungseigenschaften erklärbar macht usw. usw. Letztlich sucht die Naturwissenschaft nach einer Ur-Formel, nach einer Theorie für Alles (TOE - theory of everything).

Dieses Wechselverhältnis von einfachen Gesetzen zu komplexen Erscheinungen war zweifellos erfolgreich, insbesondere auf dem Gebiet der Technik. Bereits erwähnte chaotische Phänomene, vor allem aus dem Bereich des Lebendigen, ließen sich aber bisher nicht allzu gut damit bewältigen. Oft scheint die Komplexität noch zuzunehmen, wenn man in die Tiefe geht. Ist die DNS "einfacher" als ein Organ, eine Leber zum Beispiel?

Chaotische Systeme produzieren Komplexität, aus einfachen, klaren Regeln entstehen vielfältige Erscheinungen. Man könnte Chaostheorie auch als die Theorie komplexer Systeme bezeichnen - sehr oft findet man Chaos in Systemen vieler sich gegenseitig beeinflussender Teile. Etwa im menschlichen Gehirn: Nicht nur unser Herz braucht offenbar ein bestimmtes Chaos als Grundzustand, um flexibel und schnell reagieren zu können - in den letzten Jahren fand man Chaos auch im Gehirn.

Der Grundzustand dieses Organs (sichtbar etwa im EEG) scheint nicht wie vorher vermutet ein ungeordnetes "Rauschen" zu sein, er läßt sich treffender als eine Art wartendes, kreatives Chaos verstehen. Es wurde kein kausaler Zusammenhang zwischen bestimmten EEG-Mustern und Gedanken oder Sinneseindrücken gefunden, sondern spontan und ständig entstehende Ordnungsmuster, sich ablösend, mit jeweils tausenden von aktivierten Gehirnzellen.

Wenn wir an die schöne Stadt Gmunden denken, ist dieses innere Bild komplexer als eine Erklärung dieses Gedankens aus Operationen tausender Ganglien?

Antichaos

Ein deteriministisches Chaos kann in Unordnung stürzen, aber im eben erwähnten Beispiel erzeugt es Ordnung! Wenn Chaos ein "Urstoff" sein soll, wie ihn sich die Antike dachte, dann ist er jedenfalls nicht so gestaltlos und leer wie damals angenommen. Insbesondere in der Biologie fand man, dass die Chaostheorie mit gleichem Recht "Ordnungstheorie" heißen könnte. Wesentlich interessanter als die möglichen Übergänge in die Unordnung zeigten sich die Ordnungszustände, die (oft spontan) aus dem deterministischen Chaos entstehen können.

Dabei entsteht aus Komplexität wieder Einfachheit, das vibrierende Chaos erzeugt Strukturen - solche Ãœbergänge werden als "Antichaos" bezeichnet. Das Leben selbst entstand durch unzählige solcher Schritte zu höherer Ordnung, aus der chaotischen "Ursuppe" bildeten sich immer komplexere Lebewesen, die dann aber als "einfache" (geordnete) Ganzheiten operieren. Obwohl ich aus Milliarden von Zellen bestehe, arbeiten diese konzentriert zusammen, um den geordneten Griff zum Bierglas zu ermöglichen. Solche Ãœbergänge von Chaos zu Ordnung gibt es aber auch in ganz einfachen, "toten" Systemen. Frühmorgendlich kann jeder - ob Chaot oder nicht - beobachten, wie sich in einer Kaffeetasse Antichaos ereignet: In heißen Kaffe gießt man etwas Milch. Plötzlich bilden sich (sechseckige) Wirbelkanäle, die längere Zeit stabil bleiben können.  Besser gelingt dieses Experiment jedoch mit Flüssigkeiten, die von unten her erwärmt werden.

Ein weiteres Beispiel stellen die Heckwellen eines fahrenden Bootes dar: Abhängig von der Geschwindigkeit entstehen stabile Wirbelmuster. Diese Art von geordneten Strukturen bei ständigem Durchfluß von Materie und Energie nennt man "dissipative Strukturen", die Entstehung von Ordnungsmustern "Selbstorganisation".

Entropie

Dies scheint nun dem berühmten 2. Hauptsatz der Thermodynamik vollkommen zu widersprechen. Danach laufen Vorgänge in der Natur von selbst nur von Zuständen niedriger zu solchen höherer Wahrscheinlichkeit ab. Ohne Zutun nimmt die Ordnung ab. Die Physik prägte sogar eine physikalische Größe, die Entropie, die man als Maß für die Unordnung verstehen kann.

Bremst etwa ein Auto, so wird geordnete Bewegung (alle Teilchen des Gefährts bewegen sich in eine Richtung) in ungeordnete Wärmebewegung der Bremsen, Reifen und letztlich der Umgebung umgewandelt. Nie aber wurde beobachtet, dass sich die Luft ein wenig abkühlt und ein Auto plötzlich zu fahren beginnt. In abgeschlossenen Systemen bleibt die Entropie gleich, bei der Kombination mehrerer solcher nimmt sie zu. Lebewesen sind jedoch Beispiele extremer Entropieverminderung - bereits einzelne Zellen kann man als chemische Fabriken beschreiben, in denen hunderte Prozesse parallel ablaufen.

Der Widerspruch ist aber nur ein scheinbarer und läßt sich auf mehrere Arten entkräften:

1. Gerade Lebewesen sind Paradebeispiele für offene Systeme - sie existieren nur mit einem ständigen Durchfluß von Materie und Energie. Thermodynamisch gesehen vermindern sie zwar ihre innere Entropie, erzeugen aber nach außen hin trotzdem Unordnung - nur im dynamischen Fluß von wenig zu mehr Chaos können wir Ordnung erzeugen! So entsteht aus Nahrungsmitteln einerseits komplexes Körpermaterial und andererseits Abfall: Exkremente, Abwärme. Auch einfache dissipative Systeme wie die oben erwähnten zeigen dieses Verhalten - sie brauchen einen ständigen Energiefluß, um sich ausbilden zu können. In der Kaffeetasse mag zwar Ordnung entstehen, insgesamt nimmt die Entropie trotzdem zu - der Kaffee kühlt sich ab, die Umgebung wird etwas wärmer. Letztlich wird er gar getrunken und darf nochmals Ordnung erzeugen im müden Frühaufsteher.

2. Die Entropie ist eine physikalische Größe, die zur Beschreibung einfacher Systeme bis hin zu Wärmekraftmaschinen erdacht wurde. Dort hat sie mit Wärmeprozessen zu tun und hängt mit der Wahrscheinlichkeit von Zuständen zusammen. Sie mit Unordnung zu verbinden ist höchstens in solchen physikalisch einfachen Systemen sinnvoll und zulässig, die kühnen Übertragungen auf komplexe Systeme wie Lebewesen, Schreibtische oder gar das ganze Universum sind (obwohl oft gemacht) sinnlos, dort hat die Entropie nichts verloren. Wie erwähnt bezieht sich die Entropiezunahme auf die Vereinigung vorher getrennter (abgeschlossener) Systeme, etwa der warmen und der kalten Seite einer Dampfmaschine. Die Entwicklung unserer Welt zeichnet sich aber umgekehrt durch ständige Entstehung neuer Systeme aus - Galaxien, Sterne, Planeten, Zellen - das Universum ist kein gleichförmiger Brei, und mein Schreibtisch auch nicht!

Attraktoren

Schon einfache Systeme werden zu bestimmten Zuständen "hingezogen". Ein Pendel etwa schwingt genau in einer Frequenz, letztlich landet es gar am tiefsten Punkt. Jeden Morgen starrst Du in die wirbelnde Kaffeetasse und bemerkst, dass immer wieder ähnliche Zustände entstehen, bestimmte Muster werden "angestrebt", andere treten selten oder niemals auf.

Betrachten wir das System Jäger - Beute (am Beispiel Fuchs - Hase). Ist die Zahl der Füchse hoch, sinkt jene der Hasen; daraufhin sinkt jene der Füchse, die wenig Nahrung finden, die Zahl der Hasen kann wieder steigen. Tatsächlich beobachtet man ständige Schwankungen der Populationen, eine Art von dynamischem Gleichgewicht. Um solche dynamischen Systeme besser beschreiben zu können, führte H. Poincare eine bestimmte Art von Diagrammen ein. Die sogenannten "Phasenräume" kann man als (abstrakte) Darstellung aller möglichen Zustände verstehen, als Räume der Möglichkeiten. Auf der x-Achse eines Koordinatensystems tragen wir die Zahl der Hasen auf, auf der y-Achse jene der Füchse. Jeder mögliche Zustand wird dann durch einen Punkt repräsentiert.

Der Phasenraum zeigt uns also alle möglichen Zustände, auch solche, die in der Praxis gar nie eingenommen werden. Nun ist das System aber dynamisch, ein Zustand bleibt nie lange erhalten. Punkt A stellt ein starkes Übergewicht an Jägern dar. Die Nahrung ist knapp, die Zahl der Füchse sinkt, worauf jene der Hasen zunimmt. Das System könnte sich von A nach B entwickeln.

Nun hätten wir aber einen Überschuß an Beute, die Zahl der Füchse kann wieder steigen, das System tendiert wieder in Richtung Punkt A. In der Praxis ergibt sich aber kein Hin- und Herpendeln zwischen diesen Extremen, das System nimmt vielmehr ein dynamisches Gleichgewicht mit nicht zu großen Extremen ein. Im Phasenraum zeigt sich eine geschlossene Kurve, etwa ein Kreis oder eine Ellipse. Damit wird ein sanftes stetiges Pendeln zwischen Mehrheiten der Füchse bzw. der Hasen dargestellt. Diese Kurve stellt den Attraktor des Systems dar. Startet das Ganze an irgendeinem Punkt, zum Beispiel B, pendelt es sich doch früher oder später in den Attraktor ein, dessen genaue Form natürlich von verschiedenen äußeren Umständen abhängt.

Chaotische Systeme zeigen wesentlich kompliziertere Attraktoren, was auch bedeutet, dass man ihr Verhalten nicht vorhersagen kann. Der abgebildete "Lorenz-Attraktor" repräsentiert mögliche Zustände unseres Wetters, trotzdem ist dieses nur kurzfristig vorhersagbar. Würde man das Bild vergrößern, um die Umgebung eines Zustandes besser zu sehen, spalten sich die Linien immer mehr auf, wie genau wir auch hinsehen, ständig finden wir neue Strukturen. Solche Attraktoren nennt man auch "seltsame" Attraktoren. In diesem Fall ist die Kurve (wie oft bei chaotischen Systemen) ein Fraktal.

Fraktale

Dabei handelt es sich um geometrische Objekte, die nicht in die klassische (Euklidsche) Geometrie passen, in der es um Objekte wie Punkte, Geraden, Ebenen, usw. geht. Beispiel: Küstenlinien. B. Mandelbrot stellte die Frage: Wie lang ist die Küste Englands? Seine Antwort: Es kommt darauf an, mit welchem Maßstab man mißt! Denn: Je genauer man hinschaut, desto länger wird die Küste. Immer wieder treten ähnliche Formen auf.

Mathematisch wurde solchen Linien Dimensionen zwischen 1 (Gerade) und 2 (Ebene) zugeschrieben, also "gebrochene" (fraktale) Dimensionen, z.B. 1,26 (entspricht etwa der Küste Englands). B. Mandelbrot war der Schöpfer dieses Begriffs und fand selbst das berühmteste aller Fraktale: Die nach ihm benannte Menge (auch: "Apfel-Männchen"). Es entsteht aus einer einfachen Formel, wobei das Ergebnis jeder Rechnung wieder in die Formel eingesetzt wird. Dies macht man so oft, bis eine gewisse Grenze überschritten wird und zählt die Anzahl der Schritte. Dieser Anzahl wird dann ein Farbwert zugewiesen.

Das Fraktal ist ein "unendliches" Universum, man kann beliebig oft vergrößern, hinein-zoomen, immer wieder findet man ähnliche Formen.

Desweiteren interessant: Viele Formen in der Natur ähneln Fraktalen bzw. sind damit beschreibbar: Blätter, Bäume, Blutgefäße, Wolken, Schneeflocken, ... Wie bereits erwähnt versucht man auch in verschiedenen medizinischen Meßkurven fraktale Eigenschaften zu finden (EEG, EKG).

Ein bißchen nach Baum sieht das nebenstehende Fraktal aus: Es nennt sich Feigenbaum-Szenario (nach M. Feigenbaum) und zeigt eine oft vorkommende Art des Übergangs von Ordnung zu Unordnung, wie er etwa bei der Verbreitung einer ansteckenden Krankheit auftritt. Links beginnt das System mit einem eindeutigen Zustand, der sich dann bei leichter Veränderung einer Randbedingung in zwei, vier, acht usw. aufspaltet. Bei geringster weiterer Veränderung tritt völliges Chaos ein.

Zusammenfassung

Die Chaostheorie untersucht komplexe nichtlineare dynamische Systeme. Dabei treten grundsätzlich zwei Arten von Prozessen auf:

Aus Ordnung entsteht Chaos: Wie gehen Prozesse, die (oft) einfachen Gesetzen gehorchen, von geordnetem zu (völlig) ungeordnetem Verhalten über?

Vom Chaos zur Ordnung: Wie entstehen in diesen Übergängen wieder neue Ordnungsstrukturen (Antichaos)?

Angemerkt werden muss, dass bisher kein einheitlicher Ablauf gefunden wurde, es gibt Ähnlichkeiten, aber jedes System entwickelt sich anders zwischen Chaos und Ordnung. Zusammen mit der großen Anwendungsbreite der Chaostheorie bewirkt dies (zurecht?) Verständnisschwierigkeiten. Chaostheorie bewirkt Chaos - Durcheinander, Wirrwarr - aber hoffentlich kein Gähnen!