Walter Tydecks

 

Konstellationen (Sternbilder)

Wann immer eine Sache spannend oder kritisch zu werden beginnt, liegt das an einer besonderen Konstellation. So geht der Weltmarkt seinen Gang, bis eine Konstellation entsteht, die zum Börsenkrach, zum Währungssturz oder gar zu Kriegen führt. Die Psychologie beschreibt das übliche soziale Verhalten, aber in bestimmten Konstellationen kann jedes soziale System gekippt werden und die Krise und ihre Folgen sind mit der Psychiatrie zu beschreiben. In der Softwareentwicklung ist die Konstellation ein ebenso gängiger Begriff wie Fehlerbehebung oder Projektmanagement: Komplexere Programme können unmöglich für alle Fälle durchgetestet werden. Im Echtbetrieb kommt es zu Datenkonstellationen, die nicht vorhergesehen waren und das Programm zum Absturz bringen.

Konstellationen bezeichnen einen labilen Systemzustand, der aber aus der bekannten Systembeschreibung nicht abgeleitet werden konnte. Sie stellen einen Gegenbegriff zu allen Systemtheorien dar, den formal-logischen und dialektischen.

Meistens ist es mit der Bezeichnung Konstellation getan. Es gibt z.B. eine Theorie der Weltmarktkrisen. Aber zu einer Konstellation gehört mehr, etwa das Attentat auf einen populären Politiker, eine Angstwelle nach einer Umweltkatastrophe, eine bahnbrechende neue technologische Entdeckung und dergleichen. So etwas kann sich dramatisch auf die Weltmarktentwicklung auswirken und dort einen Umbruch auslösen. In der Beschreibung durch die Weltmarkttheorie kann das wahrgenommen und als Konstellation bezeichnet werden, sie ist aber nicht allein mit dieser Theorie erklärbar.

Ähnliches gilt für alle anderen Systeme und Theorien. Die Bezeichnung Konstellation hat zunächst eine eher verharmlosende Wirkung, indem ein unvorhergesehener Prozess wenigstens einen Namen erhält. Aber Konstellationen sind ursprünglich Sternbilder und sie verweisen damit auf Magie und Astrologie, auf sprengende Elemente gegen die Wissenschaftsentwicklung und die Aufklärung. Diesem Gesichtspunkt soll vor allem nachgegangen werden.

Nichts scheint ferner, kälter und starrer zu sein als die Sternbilder. Und dennoch lassen sich schnell periodische Entwicklungen, Lebensprozesse auch im Weltall nachweisen. Praktisch alle menschlichen Ideen können durch Sternbilder symbolisiert werden, wie umgekehrt versucht werden kann, sie aus ihnen herauszulesen. Konstellationen sind nicht nur Extrempunkte in bekannten Systemen, sondern die Vielfalt und der Reichtum der Himmelserscheinungen geben der Phantasie ständig neue Nahrung.

Keine moderne Wissenschaft kann mit solchen Überraschungen aufwarten wie die Astronomie.

1. Negative Dialektik

Im 20. Jahrhundert ist durch die bahnbrechende Arbeit von Panofsky und Saxl über den Stich "Melancolia 1" von Dürer an die Bedeutung von Konstellationen erinnert worden. Benjamin hat die Tragweite sofort erkannt. Seine Studien über das deutsche Trauerspiel leitet er mit einer Begriffslehre ein, für die Konstellationen zum Dreh- und Angelpunkt werden. Eine Konstellation ist nicht einfach zurückführbar auf einen kleinen Satz von logischen Definitionen und Axiomen und hat doch einen präzisen Charakter. Während im Axiomsystem vom Zentrum her gedacht und gefolgert wird (von den Axiomen und Definitionen aus), wird in der Konstellation von den Extrem- und Randpunkten aus geforscht.

Insofern ist auch das dialektische Denken von Hegel und Marx axiomatisch, da sie nach einem Zentralbegriff suchen und von ihm alles andere herleiten wollen. In seiner dogmatischen Gestalt wird dies Denken eindimensional und blind, wenn vom Zentralbegriff aus nur eine einzige Abfolge von Gedanken möglich ist. Es wird aufgeklärt und offen, wenn schon von Anfang an mehrere Entwicklungsmöglichkeiten gegeben sind und auch im weiteren immer wieder Verzweigungspunkte erreicht werden. Konstellationen beschreiben den Systemzustand im Verzweigungsmoment. Kleinste Veränderungen in der Konstellation lösen die Entscheidung aus.

Die moderne Himmelsmechanik ist zwar das beste naturwissenschaftliche Beispiel. Dort werden die Wechselwirkungen zwischen endlich vielen Körpern (z.B. den Planeten) untersucht, die sich zyklisch oder fast-zyklisch bewegen. Ständig drohen im Zusammenwirken Resonanzkatastrophen, aber auch die schönsten Harmonien und größte Stabilität sind vorstellbar.

Die Bewegung der endlich vielen Körper wird interpretiert als Extremfall von kontinuierlichen, normalerweise chaotischen Strömungen. Anschaulich wird das z.B. in der Vorstellung der Entstehung des Planetensystems aus dem Urnebel. Auch die Bezeichnung Milchstraßse deutet auf den Strömungscharakter. Überhaupt lassen sich diese Effekte an Wasserströmungen demonstrieren: In kontinuierlichen Strömungen können scheinbar "stehende", kristallin wirkende Muster entstehen, die durch den geringsten Anstoß gebrochen und in andere Muster überführt werden. Die Konstellationen sind für sich gesehen endlich, aber nur als Ausdruck einer zugrunde liegenden kontinuierlichen Bewegung.

Offene Systeme lassen sich auf keine überschaubaren, endlichen Zentren zurückführen, sie lassen sich nicht axiomatisieren. Aber jeder Zustand kann durch eine Konstellation beschrieben werden. Dagegen können in axiomatischen Systemen alle möglichen Konstellationen aus einer einzigen, endlichen Urkonstellation hergeleitet werden. So stellte sich für den frühen Wittgenstein die Mathematik und nach ihrem Vorbild jede Wissenschaft dar.

Das Weltall galt dagegen schon anschaulich als Modell für ein offenes, unbegrenztes System und es ist kein Zufall, dass die Sternbilder Orientierung für ein nicht-axiomatisches Denken sind.

In seiner Habilitationsschrift über Kierkegaard knüpft Adorno in vielerlei Hinsicht an die Arbeit von Benjamin an. Ein ganzes Kapitel ist dem Sphärensystem gewidmet, worin Kierkegaard das menschliche Dasein aufgespannt sieht. Für ihn gibt es im menschlichen Leben drei Sphären oder Stadien: die ästhetische, die ethische und die religiöse. Zwischen diesen Stadien liegen sogenannte Konfinien, die allerdings nicht eindeutig definiert sind: Zwischen dem ästhetischen und ethischen Stadium mal die Ironie, mal das Interessante, zwischen dem ethischen und dem religiösen Stadium der Humor. Auf den ersten Blick mag das alles etwas abwegig klingen, Kierkegaard lieferte aber zur Charakteristik dieser Sphären überraschende Abhandlungen. So konfrontiert er die Ironie des Sokrates mit den Romantikern, und ähnlich konnte ein Zynismus bei den Protestbewegungen (beziehungsweise genauer gesagt ihren resignierenden Ausläufern) in der Nachkriegszeit nachgewiesen werden (Klaus Heinrich). Auch das ästhetische Stadium hat bis in Einzelheiten verblüffende Parallelen zum aktuellen Zeitgefühl der Postmoderne (daran erinnert immer wieder Mattenklott).

Von der Aktualität Kierkegaards kann ausgegangen werden. Adorno sieht ihn wie Baudelaire und Tocqueville an einer Wende des Selbstbewusstseins der Moderne. Hier soll im wesentlichen der Gesichtspunkt interessieren, dass er das menschliche Dasein im Zustand einer Konstellation beschrieben hat.

"Dies Schema der Sphären wird nicht deduziert: Platonischen Ideen gleich sind die Sphären nebeneinander gesetzt. Das Denkverfahren, das sich ihrer bemächtigt, ist das der Distinktion; es bildet den Gegenbegriff zu aller dialektischen ,Vermittlung'".(Adorno, "Kierkegaard"; S. 125)

Dadurch sperrt sich Kierkegaard gegen jederlei Vereinnahmung. Zwar berufen sich fast alle aufgeklärten Theologen im 20. Jahrhundert auf ihn, aber sie können nicht darüber hinweggehen, dass für Kierkegaard die religiöse Sphäre keineswegs die höchste Sphäre ist wie für Hegel das absolute Wissen. Umgekehrt können die Existenzialisten, die ihre eigene Position eher in der ästhetischen Sphäre wiederfinden, nicht daran vorbeigehen, dass sich für Kierkegaard die Existenz nicht auf den ästhetischen Zustand oder überhaupt auf einen bestimmten Zustand beschränkt.

In Auseinandersetzung mit Hegel ist es Kierkegaard gelungen, im Bereich der Geisteswissenschaften ein überzeugendes Beispiel für ein Denken in Konstellationen zu liefern. Adorno ist davon zum einen fasziniert, fühlt sich aber auch bedroht.

"Die Sternbilder der Sphären sind allemal beschwörende Zeichen. ... Ihre disparaten Konturen, kahle Grenzlinien, die Kierkegaards rationales Deduktionsverfahren wider den eigenen totalen Anspruch zieht, verwandeln sich kraft ihrer Abstraktheit gerade ins fern drohende Sternbild von Mythologie."(ebd., S. 131)

Denn es darf nicht vergessen werden, dass Sternbilder nicht nur gegenüber dem axiomatischen Denken Horizonte öffnen und den Blick freimachen, sondern sie stehen auch für bedrohende Gewalt. Später haben Adorno und Horkheimer in der "Dialektik der Aufklärung" als Motiv des axiomatischen Denkens nachgewiesen, dass es die Angst bannen soll, indem es einen überschaubaren, manipulierbaren Bereich abgrenzt und alles Andere tabuisiert. Sternbilder können nicht auf einen bekannten Kern reduziert werden und so droht etwas Unbekanntes, das in ihrer Dynamik wirkt.

Das Leben in den von Kierkegaard beschriebenen Sphären ist überall bedroht. Auch in diesem Sinn hat er ein konsequentes Vorbild für Denken in Konstellationen geliefert: Wo sich das Leben in einer der Sphären zu beruhigen versucht, hat er die Grenzen, Gefahren und Extrempunkte aufgezeigt: Das ästhetische Leben löst sich nicht in Genuss und Wohlgefallen auf, das ethische nicht in moralischer Gefälligkeit, das religiöse weder in Pietismus noch in Verzweiflung.

Die Triebkräfte sind nie ganz transparent. Und es kann davon ausgegangen werden, dass auch die von Kierkegaard beschriebene Konstellation keinen unhistorischen Charakter hat. Sie ist einmalig wie die in der griechischen Tragödie beschriebene.

Adorno hat in seiner Arbeit ein wenig die Hintergründe aufzuhellen versucht, die er in den Bedrohungen durch die moderne Zivilisation, insbesondere ihren Schockwirkungen und Reizüberflutungen sieht. Auf Kierkegaard haben sie zudem noch in der gebrochenen Form gewirkt, wie sie in der dänischen Provinz spürbar waren. Und so wenig wie Kierkegaard sich selbst mit dieser Konstellation beruhigen konnte, konnte es Adorno. Viele entscheidende Ideen für sein eigenes Werk hat er von Kierkegaard übernommen (auffallend die vielen Bezüge in der "Negativen Dialektik"), und doch hat er nie zu einem abschließenden Urteil über Kierkegaard finden können, wie die Nachträge zu seiner Habilitationsschrift zeigen.

Es ist auch keineswegs so, dass er nach den Erfahrungen mit der Geschichte der Vernunft und der Zivilisation einfach zur Mythologie zurückwill. Der springende Punkt in der "Dialektik der Aufklärung" ist gerade, dass der Aufklärung vorgerechnet wird, dass sie sich von der Mythologie nicht hat richtig lösen können. Das axiomatische Denken führt die schicksalhafte Notwendigkeit der Mythologie weiter, das Prinzip der Immanenz die Macht der Wiederholung in der Mythologie ("Dialektik der Aufklärung", s. 16). Sternbilder sind für Adorno "fern drohend", und am liebsten meidet er sie.

Aber in der "Negativen Dialektik" führt doch kein Weg an ihnen vorbei. Wie Kierkegaard lehnt Adorno die Identitätsphilosophie ab, die hinter jeder Negation noch die Negation der Negation als positive Vermittlung findet und alles in Identität auflöst. Wenn aber mit dem positiven Denken nicht jedes Denken aufhören soll, sieht er nur als Lösung:

"Das einigende Moment überlebt, ohne Negation der Negation, doch auch ohne der Abstraktion als oberstem Prinzip sich zu überantworten, dadurch, dass nicht von den Begriffen im Stufengang zum allgemeinen Oberbegriff fortgeschritten wird, sondern sie in Konstellation treten. Das belichtet das Spezifische des Gegenstands, das dem klassifikatorischen Verfahren gleichgültig ist oder zur Last" (Adorno, Negative Dialektik, S. 162) Und weiter: "Der Konstellation gewahr werden, in der die Sache steht, heißt soviel wie diejenige entziffern, die es als Gewordenes in sich trägt." (ebd., S. 163)

Im Gegensatz zu jeder konservativen Interpretation erkennt Adorno das utopische Moment in der Konstellation. Sie beschreibt einen Verzweigungspunkt und damit eine Vielfalt von Möglichkeiten. Wenn es zur Entscheidung kommt, sind damit die anderen Möglichkeiten keineswegs ausgelöscht. In den Abschnitten zur Anthropologie bestärkt er diesen Gedanken. Das Leben eines Menschen oder des Menschen in einer bestimmten Konstellation schlechthin mag noch so verzweifelt und entstellt aussehen, es bewahrt aber doch im Innern den Keim zu Alternativen.

Gleichzeitig tilgt er aber das Bedrohliche der Konstellation ganz. Ihr Unendlichkeitscharakter ist verloren gegangen, sie wird nicht mehr als Extrempunkt einer chaotischen Bewegung gesehen. Wie in der Kopenhagener Deutung der Quantenmechanik (und deren Vertreter Heisenberg) heißt hier Denken in Konstellationen einfach, eine Sache von verschiedenen Seiten aus zu sehen, die nicht aufeinander zurückgeführt werden können. Adorno versichert sich der Harmlosigkeit, indem er als unpassendes Beispiel für den Unterschied zwischen Axiomatik und Konstellation heranführt, dass die Konstellation den Gegenstand anstelle mit einem Einzelschlüssel mit einer Nummernkombination erschließt.

Sicher hat kaum einer wie er die gesellschaftlichen Katastrophen des 20. Jahrhunderts thematisiert (Auschwitz), aber für ihn sind es nun wirklich erstarrte, tote Bilder, ohne Zusammenhang zu Bewegungen, in deren weiteren Verlauf Änderungen möglich sind. Sie stehen für ihn höchstens als Endpunkte fataler Bewegungen, die sich in einer Falle verstrickt haben. Das Denken selbst kommt zum Stillstand, indem es sich in negatives und positives Denken spaltet, und in beiden voneinander isolierten Varianten unglaubwürdig wird. Negatives Denken bleibt im Anblick der Katastrophe erstarrt und führt konsequenterweise zum Bilder- und damit Denkverbot. Positives Denken kennt keine Katastrophe, sondern entdeckt die Natur wie den Inhalt eines Tresors, für den nur der passende Schlüssel zu finden ist, und wenn er nicht gefunden wird, wird schnell genug zu Panzerknackermethoden gegriffen.

Bis zum Schluss ist Kierkegard für Adorno ein Stachel gewesen. Er wollte ihn sicher nicht ohne Berechtigung schützen vor einer verflachenden Rezeption durch Theologie und Existenzialismus. Aber beide haben ihrerseits das Unendlichkeitsmoment bei Kierkegaard hervorgehoben, an dem Adorno lieber vorbeiging. Seine negative Theologie ist an Kierkegaard orientiert. Das begriffliche Denken, das nicht in Identitätsphilosophie aufgeht, muss auch die Möglichkeit des Begriffslosen, des Nicht-Identischen denken, und das kann als Negativ von Theologie angesehen werden. Für Kierkegaard verwickelt sich das Denken aber nicht nur gegenüber dem Undenkbaren in Paradoxien, sondern in sich selbst, es stürzt in innere, unauflösbare Paradoxien, wo es vor der Unendlichkeit steht.

Diese grundsätzliche Krisensituation (die Tillich als Abgrund bezeichnet) wird von den Theologen aufgegriffen. Ähnlich von den Existenzialisten. Sie sehen den Menschen in der Situation der subjektiven Entscheidung, wo das Leben durch kein Zentrum gesichert ist, sondern in eine Konstellation gestellt. Positives Handeln und Denken ist für sie nur möglich angesichts von Katastrophen, denen es sich stellt. Es ist damit ausdrücklich nicht ausgeschlossen.

Adorno will dagegen das Denken insgesamt aus der unendlichen, möglicherweise chaotischen Bewegung lösen. Wo das Denken in Praxis umgesetzt wird, drohen alle Ideale verloren zu gehen, ja sogar verraten zu werden. Aus der marxistischen Hoffnung, dass die Philosophie zur Macht wird, wenn sie die Massen ergreift, ist nach der Erfahrung des Stalinismus die Angst geworden, dass alle Utopien und hohen Ziele versinken, wenn sie in den Strudel der Geschichte geraten.

Seine negative Dialektik kristallisiert sich in der Dialektik des Freiheitsbegriffs. Der Freiheitsgedanke ist nur positiv, solange er negativ ist, indem er bestehende Unfreiheit anprangert. Soll dagegen positiv Freiheit verwirklicht werden, schlägt sie um in neue Unfreiheit. Das unterscheidet sich erheblich von Kierkegaard. Der sieht den Freiheitsbegriff in der Spannung von Unendlichkeit und Endlichkeit, indem die unendliche Vielfalt der Möglichkeiten der Endlichkeit ihrer Verwirklichung gegenübersteht. Nie kann das voll realisiert werden, was das Denken sich ausgemalt hat, weil das Denken nie die Fülle der Wirklichkeit erfassen kann und so immer zwischen der Möglichkeit und ihrer Verwirklichung ein Sprung bleibt.

Das erzeugt Angst und insofern ist Kierkegaard ähnlich pessimistisch wie Adorno, wobei er in seiner christlichen Haltung den Pessimismus als religiöses Leiden begreift. Aber die Spannung zur Unendlichkeit bleibt offen, während Adornos negative Dialektik sich verschließt.

Sie erhält zwar ein utopisches Moment, sieht aber keine Chance für deren praktische Verwirklichung. Dadurch nähert sie sich dann doch dem konformen positiven Denken, das nur noch sagt, warum die Zustünde so sind, dass sie nicht geändert werden können. Auch dem konservativen Denken ist auf dem Gebiet der Träume (also im Feuilleton) alles erlaubt, aber beim Geld hört die Gemütlichkeit auf. So konnte die Frankfurter Schule zu einer gesellschaftlich anerkannten Institution werden und auf dem Sektor der Kultur bis hin zu erzreaktionären Einrichtungen Positionen erobern. Das bringt ihn dahin, sowohl (noch in der "Negativen Dialektik") die Existenzialisten zu verhöhnen als im konformen positiven Denken die innere Lüge zu sehen und zu verachten. Von beiden ist er angezogen und abgestoßen.

Aber er sieht die gefährdete Stellung des Denkens, auch und gerade seines eigenen. Überall wird versucht, mit Katastrophen zu leben, indem sie in Sensationsmacherei zerstreut werden (Massenmedien), fremder Schuld zugeschoben werden (Moralismus), oder in plattes Tiefendenken aufgehoben werden (Existenzialontologie, die verschiedenen psychologisierenden, fernöstlich angehauchten Gurus). In verzerrter Weise leuchtet da Kierkegaards Sphärensystem auf, wo die Katastrophe zur ästhetischen Bilderflut, moralischen Verurteilung oder religiösem Sektierertum ausgenutzt und eingesetzt wird. Wie Kierkegaard hat Adorno sich dem entgegenzustellen versucht.

Allerdings sind hier bereits starke Tendenzen zu spüren, die in eine andere Konstellation treiben als die von Kierkegaard beschriebene. Sie scheint eher in psychiatrischen Begriffen fassbar, wie im folgenden an der Entwicklung der modernen Logik gezeigt werden soll. Die Figur der negativen Dialektik mit ihrer schizophrenen Spaltung in positives und negatives Denken zeigt ebenfalls in diese Richtung und kann dahin verführen.

2. Axiome der modernen Logik

Die moderne Logik ist seit Bacon durch ihr induktives Vorgehen ausgezeichnet. Klaus Heinrich hat im einzelnen nachvollzogen, wie sie sich vom deduktiven Folgern der antiken Logik gelöst hat. Für die Griechen galten als logisch überzeugend nur Schlussfolgerungen nach dem Muster: Alle Menschen sind sterblich, Sokrates ist ein Mensch, also ist Sokrates sterblich. Am Anfang steht eine allgemeine Aussage, die Folgerung auf den Einzelfall wirkt zwangsläufig und banal. Neue Erkenntnisse sind auf diesem Weg nicht zu gewinnen. Woher die Kenntnis der allgemeinen Aussagen kommt, ist unklar.

Heinrich hat gezeigt, wie das deduktive Folgern aus dem mythologischen Denken entstanden ist, wo die Entstehung und Geschichte der Welt dargestellt wird in der Abfolge von Göttergenerationen. Die Stammtafeln der Götter, Heroen und Menschen sind das Urbild aller logischen Schlussfolgerungen. Im Pathos der logischen Notwendigkeit leben die tragischen Verstrickungen, der Geschlechterfluch der frühen Mythologien weiter.

Die griechischen Philosophen strebten nach einem umfassenden Entwurf der ewigen, allgemeinen Ideen, aus denen deduktiv alles weitere abgeleitet werden kann. Die Ideen sind unbewegt, tot und unberührt von den Zwiespältigkeiten des wirklichen Lebens. Wenn diese Systeme als Konstellationen bezeichnet werden, sehen die Griechen in den Sternbildern nur die statische Seite. Konstellationen sind nicht endlicher Ausdruck einer unendlichen Bewegung, sondern ein starrer Halt in einem unendlichen Abgrund. Bewegungen werden zerlegt in starre endliche Konstellationen von Durchgangsstadien, die unendliche Mannigfaltigkeit der Natur auf atomistische Konstellationen endlicher, ewiggleicher Grundbausteine.

Induktives Folgern hielt Aristoteles dagegen für unwissenschaftlich. Denn da wird aus der Kenntnis einer einzelnen Eigenschaft auf eine allgemeine Eigenschaft geschlossen. Das obige Beispiel müsste umgewandelt werden in: Sokrates ist ein Mensch, Sokrates ist sterblich, also sind alle Menschen sterblich. Aristoteles wandte dagegen ein, dass diese Folgerung nur dann stichhaltig ist, wenn für alle einzelnen Menschen bekannt ist, dass sie sterblich sind.

Die moderne Naturwissenschaft verfährt aber grundsätzlich induktiv. Jedes Experiment ergibt nur einen Sinn, wenn aus ihm induktiv gefolgert werden kann. Galilei experimentierte mit einzelnen Gegenständen und folgerte, dass ihre Falleigenschaften für alle Gegenstände gültig sind. Aus Einzelerkenntnissen wird auf allgemeine Sätze geschlossen.

Während für die Griechen die Axiomatik absolute Gültigkeit hatte, aus der alles Weitere deduktiv gefolgert werden kann, relativiert sich ihr Stellenwert für die moderne Logik.

Ein einziges Gegenbeispiel (experimentum crucis) bringt das gesamte System zu Fall. Der bewusst angestrebte Vorteil der induktiven Logik liegt in der Erkenntnis immer neuer Sachverhalte, die bis zur Umwälzung der axiomatischen Systeme führt. Die markieren dann die Höhepunkte der modernen Wissenschaft, wie die Umstellung der Chemie auf das Periodensystem der Elemente oder die Einführung der Relativitätstheorie in der Physik.

Axiomatisches Vorgehen unterscheidet sich in der Moderne damit grundlegend vom antiken Vorbild und wird entsprechend zutreffender als Denken in Kalkülen oder Suche nach Paradigmen bezeichnet, was besser den vorläufigen, hypothetischen Charakter betont.

Hypothetisch verfährt die moderne Logik auch im Detail: Logisches Folgern zerfällt in eine Kette von hypothetischen wenn-dann-Aussagen. Die Wahrheitstafel legt ihren Wahrheitsgehalt fest. So z.B. Peirce: Wenn aus Wahrem Wahres gefolgert wird, ist die Folgerung wahr. Selbst wenn aus Falschem Wahres gefolgert wird, soll die Folgerung als wahr gelten. Wenn aber aus Wahrem Falsches gefolgert wird, ist die Folgerung falsch. Wird schließlich im Nonsens-Fall aus Falschem Falsches gefolgert, kann das formal als wahr gelten.

Die deduktive Logik der Griechen stieß an die Grenze, dass nicht erklärt werden konnte, woher das Wissen um die Axiome kommt. Die induktive Logik der Moderne findet ihre Grenze in ihrem grundsätzlich fiktiven Charakter:

Im Gegensatz zu den Griechen gibt es in den allgemeinen Aussagen nie Sicherheit, in den einzelnen Aussagen bleibt alles hypothetisch. Wenn ein Experiment unter bestimmten Bedingungen durchgeführt wird, bringt es bestimmte Resultate. So werden die einzelnen Implikationen ins Unermessliche angehäuft und es bleibt "nur" das Problem, den inneren Zusammenhang zu finden. Jedes neue Experiment bringt eine neue Einzelerkenntnis und damit einen Fortschritt. Aber im Ganzen zerfleddert alles in immer mehr Einzeldiszplinen, eigene interdisziplinäre Brückendisziplinen werden notwendig.

Der innere Fortschritt solcher Wissenschaft ist gewissermaßen aufgrund ihres Vorgehens garantiert, da jede neue Beobachtung als induktive Folgerung formuliert werden kann. Sind die Experimente der nie versiegende Motor der Wissenschaft, so entstehen die Probleme mit der Anwendung. Im Grunde ist jede Anwendung ein neues Experiment, da es keine zwei Anwendungen oder Experimente gibt, die unter völlig gleichen Bedingungen ablaufen. Die allgemeinen Aussagen haben nur hypothetischen Charakter und so droht mit jeder Anwendung, dass sie zum Gegenexperiment werden, sprich: misslingen kann. Mit der Größe der Anwendungen und der Komplexität ihrer Voraussetzungen und Auswirkungen wachsen die Gefahren bis zu den Katastrophen, die heute ständig produziert werden.

Spätestens an dieser Stelle ist der Punkt erreicht, wo über den Geltungsbereich des induktiven Verfahrens im Ganzen nachzudenken ist. Offenbar kann das induktive Verfahren seine überlegene Produktion von Neuigkeiten nur innerhalb bestimmter Grenzen wirkungsvoll liefern. Wo diese Grenzen liegen, kann aus dem System heraus nicht gefolgert werden und erscheint daher zunächst beliebig und willkürlich. Für das System handelt es sich um eine Naturkonstante. Bekanntlich sieht Chargaff diese Grenzen mit der Erforschung im Innern des Atoms und im Innern der biologischen Zellen erreicht oder sogar schon überschritten. Nach Kenntnis der induktiven Logik hat Chargaff grundsätzlich recht und sind alle Kritiken zurückzuweisen, die prinzipiell die Existenz solcher Grenzen leugnen. Ob Chargaff im Einzelnen recht hat mit der Bestimmung seiner Grenzen ist eine andere Frage. Sie muss ebenso gesellschaftlich entschieden werden wie gesellschaftlich entschieden wurde, über Jahrhunderte nach der induktiven Logik vorzugehen.

Eine genauere Untersuchung, wie in der modernen Logik induktiv gefolgert wird, zeigt diese Grenzen noch deutlicher. Wie die deduktive Logik unterscheidet sie sich von der lokalen Beschränktheit der vormythologischen Magie. Dort besitzt jeder Ort seine Einmaligkeit, wodurch er weder aus einem globalen System deduktiv abgeleitet werden kann, noch aus seinen Eigenschaften induktiv auf globale Eigenschaften der Umgebung zu schließen ist. Konsequenzen: Alles ist atomisiert. Alles muss völlig neu kennen gelernt werden. Erfahrungen und Gedächtnis können nicht verallgemeinert werden. Ausflüge führen immer zu echt Neuem.

Aber das sind bereits Aussagen über grundlegende Eigenschaften, die so für alle Orte gelten sollen. Die Aussage "Jeder Ort hat seine spezifische Qualität und Einmaligkeit" hält nichts Bestimmtes über irgendeinen Ort fest, sondern ist eine globale Aussage für alle Orte. Damit entsteht eine Anschauung über die Gesamtheit der Orte, ohne ihre spezifischen Qualitäten festzuhalten. Und damit entstehen Ansatzpunkte für mythologische kosmologische Ideen, um sich ein Bild zu machen, wie diese Gesamtheit entstanden ist (als Fluss, aus dem Chaos heraus).

Adorno und Horkheimer formulieren als Dialektik der Aufklärung: Wenn erst die Einmaligkeit der Orte aufgegeben ist, enthält bereits jede Mythologie Gesichtspunkte der Zwangsläufigkeit und Immanenz, die in die Aufklärung weiterführen. Und Aufklärung wird immer auf diesen Anfangspunkt der Mythologie zurückfallen. Aber auch das vorgeschaltete Stadium der Magie ist nicht einfach ganz Anderes. Entweder bewege ich mich in der Magie, sehe ihre Grenzen nicht, und kenne weder Mythologie noch Aufklärung. Oder ich betrachte die Magie bereits als Gegenstand und trage so zu ihrer Aufklärung bei. Und diese Position nehmen natürlich auch Adorno und Horkheimer ein.

Axiomatische Deduktion: Es ist möglich, die Vielfalt der Wirklichkeit so zu ordnen, dass es in ihrem Innern einen gewissen Kern gibt. Axiomatik beinhaltet daher: Der Kern muss in Axiomen formuliert werden, und es muss Regeln geben, wie vom Kern aus gefolgert werden kann. Diese Folgerung kann einfach in den Verwandtschaftsbeziehungen bestehen (Stammbäume als Urbild der logischen Folgerungen), sie kann in den Schlüssen der Logik bestehen oder auch in den geometrischen Konstruktionsverfahren.

Unterschied der griechischen und modernen Axiomatik: Bei den Griechen beziehen sich die Axiome auf ruhende, substanzielle Eigenschaften der Dinge wie Ebenheit etc. Bei den Modernen wird als Axiom gesetzt, wie mit diesen Dingen operiert werden kann. Beispiele: Induktionsaxiom, Grenzwertaxiom. Die Ebenheit ist eine qualitative Eigenschaft, aus der folgt: es gilt die euklidische Geometrie. Anders in der Moderne: Grundlegend ist das Induktionsaxiom: Wenn eine Aussage für einen Anfangspunkt gilt, und von n auf (n + 1) vererbt wird, dann gilt sie überall.

Wichtig am Induktionsaxiom ist zweierlei: Indem aus zwei lokalen Erkenntnissen (über den Anfangspunkt und über die lokale Folgerung von n auf (n+1)) auf eine globale Eigenschaft geschlossen wird, durchbricht es grundsätzlich die lokale Einmaligkeit der Magie.

Und es geht in typischer Weise über die antike Logik hinaus:

Denn es handelt sich nicht nur unbestimmt um einen Schluss vom Einzelnen aufs Allgemeine (um einen induktiven Schluss), sondern es ist ein genaues Verfahren angegeben, wo und wie dieser Schluss mathematisch auszuführen ist (im Bereich der natürlichen Zahlen). Das Induktionsaxiom besagt, dass dies Verfahren wahr ist. Indem die moderne Logik für das induktive Schließen ein solch präzises Verfahren entwickeln konnte, sieht sie sich von Aristoteles' Vorwurf der Unwissenschaftlichkeit befreit.

In der Mathematik geht letztlich alles darauf zurück. Stückweise werden Induktionsbeweise in den natürlichen Zahlen gelehrt, dann kommen Folgen, Reihen, Folgen von Intervallen, Folgen von Umgebungen, von Häufungspunkten. Irgendwann wird jedes Problem so formalisiert, dass es einen Gesichtspunkt enthält, der als Folge aufgeschrieben werden kann und wo das Induktionsaxiom gelten soll. (Mathematisch gesprochen: Entweder werden endliche oder abzählbare Mengen betrachtet oder aber kompakte Mengen im Sinne der Topologie, in denen beweistechnisch der Rückgriff auf Folgen möglich ist und damit die Anwendung des Induktionsaxioms. Auch der oben genannte Satz von Weierstraß, dass jede ableitbare Funktion durch Polynome angenähert werden kann, setzt Kompaktheit voraus.)

Das Induktionsaxiom führt aber nur zur schlechten Unendlichkeit im Sinne von Hegel. Es muss um das Grenzwertaxiom ergänzt werden. Konzentrieren wir uns auf den Schritt von n nach (n+1). Im einfachsten Fall beträgt die Schrittweite jedes Mal genau 1 und die Schrittrichtung ist beliebig. Mit dem Paradox von Achilles und der Schildkröte kannten dagegen bereits die Griechen den schwierigeren und interessanteren Fall, dass sich die Schrittweite mit jedem Schritt bis ins Unendlichkleine verkürzt. Einerseits kann das Induktionsaxiom angewandt werden, da die einzelnen Schritte durchgezählt werden können und für die Zählung bleibt die gleiche Schrittweite erhalten (erste Messung, zweite Messung, ...), aber die gemessenen Werte verkürzen sich bis ins Unendlichkleine. Das Induktionsaxiom stürzt ins Paradox, wenn es nicht um das Grenzwertaxiom ergänzt wird: Wenn die Messwerte in der Induktion unendlich-klein werden, schlagen sie um in eine andere Qualität.

Neben dem Induktionsaxiom gehört das Grenzwertaxiom notwendig in die moderne Logik. Im Paradox von Achilles und der Schildkröte werden zwar zunächst nur räumliche Abstände gemessen, im Grenzübergang wird dann aber die Geschwindigkeit gefunden, mit der er die Schildkröte überholt.

Aber damit kehrt die Einmaligkeit der Magie wieder. Mit der Induktion soll aus dem lokalen Ort herausgeführt werden. Der Weg der Induktion kann aber unter Einflüsse geraten, wodurch die Schrittweiten unendlichklein bzw. -groß werden. Der Weg kann gekrümmt werden und sich im Kreise drehen oder auf Spiralen laufen. Es gibt also andere Qualitäten, die die Gesamtbewegung ablenken und ein stures Weiterfolgern nach dem Induktionsgesetz ins Paradox laufen lassen. Die Rahmenbedingungen, unter denen das Induktionsgesetz anwendbar ist, gelten nur lokal.

Jede Aufklärung stößt an einen solchen Grenzpunkt. Die Umwälzungen der Axiomatik durch die moderne Naturwissenschaft konzentrieren sich genau auf derartige Naturkonstanten: Seien es die begrenzte Anzahl der Elemente im chemischen Periodensystem und all die festen Gesetzmäßigkeiten im Atomaufbau, sei es die Lichtgeschwindigkeit in der Relativitätstheorie.

Etwas vollkommen Globales gibt es nicht. Aber es gibt eine Erkenntnis, wie von einer Lokalität weggeschritten werden kann und zurück, indem bestimmte Maße überschritten werden. Hegel nannte diese Grenzen Knotenlinien. Aber jedes Maß ist etwas unvorhergesehen Neues. Es kann weder deduziert noch induktiv erschlossen werden. Es ist eine Naturkonstante, die schlicht gemessen werden muss.

Axiomatisierung bedeutet dann, dass in einem Gebiet eine Orientierung möglich geworden ist. Es können maßgebliche Richtungen erkannt und bezeichnet werden. Die Ursachen für diese Orientierung brauchen dabei keineswegs bekannt zu sein. So etwa bei den Kelten die Orientierung an magnetischen Eigenschaften der Erde. In der Orientierung sind nicht ständig Entscheidungen nötig, da Wege bekannt sind.

Konstellationen beschreiben den Gegenpunkt, wenn diese Orientierung nicht gelingt. Das Wirken völlig verschiedener Kräfte wird gespürt, aber es ist unmöglich, diese Kräfte zu quantifizieren. Ihre Stärke, Entwicklungsrichtung, gegenseitige Beeinflussung können nicht vorausgesagt werden. Wege werden nicht überschaut, jeder Weg führt ins Unbekannte. Rationales Denken greift erst einmal nicht und eine Regression in Verhaltensweisen wie im Zustand der Magie kann erfolgen. (Vgl. hierzu auch die Überlegungen zur Psychiatrie von Jörn Greve.)

Diese Situation widerspricht dem Induktionsprinzip, wo wenigstens der Schluss von n auf (n + i) wahr sein soll. Die Schrittweite und die Schrittrichtung kann Schritt für Schritt gemessen werden, da es bereits einen Rahmen gibt, in dem sie und mit dem sie gemessen werden können. Konstellationen verlangen dagegen ständig Entscheidungen, wo Unwägbarkeiten beurteilt werden. Ganz im Gegensatz zum griechischen Verständnis gelten Konstellationen hier nicht als ewig, sondern ihre Stabilität ist unbekannt.

Die induktive Logik schafft für sich einen hypothetischen Raum frei von Konstellationen. So wie sie aber durch Anwendungen in die Wirklichkeit tritt, befindet sie sich nach ihrer eigenen Logik sofort in einer Konstellation, da der Übergang von Hypothese in Realität grundsätzlich Unwägbarkeiten enthält. Je mehr die induktive Logik in einzelne wenn-dann-Aussagen ohne verbindende allgemeine Kenntnisse zerfällt und je größer der Wirkungsbereich der Anwendung wird, desto unberechenbarer wird der Sprung.

Die sich häufenden Katastrophen sind gewissermaßen der experimentelle Beweis für diese Situation. Aber es gibt auch zahlreiche andere Anzeichen: Die Wissensproduktion konzentriert sich immer stärker auf das Aufspüren einzelner Implikationen. Die Universitäten als der klassische Ort, wo der Zusammenhang produktiv mitten im Forschungsprozess gestiftet werden sollte, versagen vor dieser Aufgabe und verlieren an Einfluss. Die Forschung verlagert sich in industriell geführte Großforschungseinrichtungen. Die Suche nach Zusammenhängen soll angesichts der Wissensfülle unter dem Stichwort Künstliche Intelligenz an Elektronische Datenverarbeitung abgetreten werden. Damit droht die Gefahr eines Kurzschlusses, wenn das induktive, hypothetische Verfahren Zusammenhänge nur noch als Simulationen kennt.

In der Geschichte der Mathematik gab es als Vorboten dieser Konstellation den Grundlagenstreit in der Mengenlehre. Für Cantor ist die Unendlichkeit ein Abgrund, für Dedekind ein Sack Kartoffeln. Wo Cantor an die Unendlichkeit stößt, ist für ihn zunächst unklar, in welcher Qualität sie sich auflöst, wenn sie sich überhaupt auflöst. Dedekind geht davon aus, dass jede noch so unbekannte Situation sich im Rahmen des Gewohnten orten lässt. Cantor spricht für das Grenzwertaxiom, Dedekind für das Induktionsaxiom. Denn das Grenzwertaxiom setzt nur allgemein, dass ein Qualitätsbruch vorliegt, während das Induktionsaxiom ein Verfahren liefert, in der abzählbaren Unendlichkeit der natürlichen Zahlen den allgemeinen Schluss von n nach (n+1) zu ziehen.

In den Axiomsystemen der Moderne nehmen das Induktions- und das Grenzwertaxiom eine herausragende Stellung ein. Mit dem Induktionsaxiom wird grundsätzlich festgelegt, dass und wie induktiv gefolgert werden soll. Wenn das Grenzwertaxiom fehlt, handelt es sich um endliche, geschlossene Systeme, die mit der Wirklichkeit nicht in Übereinklang zu bringen sind. Jede Naturwissenschaft besitzt ihren charakteristischen Grenzprozess, der sich in der Postulierung des Grenzwertaxioms und in der Erkenntnis einer Naturkonstante niederschlägt. Sei es die Lichtgeschwindigkeit, das Plancksche Wirkungsquantum, die elektrische Elementarladung, die Größenordnung der Elementarteilchen. Wie auch immer im Einzelnen das Axiomsystem aussehen mag und sich historisch verändern kann, diese beiden Axiome müssen enthalten sein.

Sie selbst stehen aber in der Spannung einer Konstellation zueinander, indem sie sich gegenseitig begrenzen. Das Induktionsaxiom gilt nur in den Bereichen, wo keine Grenzübergänge vorliegen bzw. wo Grenzübergänge vernachlässigt werden können (kompakte Mengen). Im Grenzübergang können wiederum eigene Gesetzmäßigkeiten gelten, so z.B. der Differentialkalkül in einem bestimmten mathematischen Grenzübergang (reelle Analysis). Grenzübergänge können zum Teil katastrophentheoretisch klassifiziert werden. Das betrifft aber jeweils nur bestimmte Aspekte ihrer mathematischen Beschreibung. Nichts führt daran vorbei, dass im Grenzübergang ein Bruch vorliegt, der in eine qualitativ veränderte Situation führt. Induktion und Grenzübergang schließen sich aus. Bei allen anderen Axiomen gilt dagegen nur, dass sie sich nicht auseinander folgern lassen.

Das unterscheidet die moderne Axiomatik grundsätzlich von der griechischen. In der euklidischen Axiomatik war zwar offen geblieben, ob das Parallelenaxiom aus den anderen Axiomen gefolgert werden kann, aber zwischen den Axiomen bestand kein Widerspruchsverhältnis. Das erklärt sich daraus, dass diese Axiome ruhende Eigenschaften der Dinge beschreiben (z.B.: Das Ganze ist größer als seine Teile). Das Induktions- und das Grenzwertaxiom beschreiben dagegen Prozesse der Naturerkenntnis, die sich als Prozesse gegenseitig ausschließen. (Es sei angemerkt, dass hieraus zunächst allgemein für den mathematischen Differentialkalkül ihre charakteristische Unbestimmtheit folgt, die sich dann in der Wellentheorie und der Quantenmechanik wiederholt und dort als Unschärferelation wahrgenommen wird. Jeder Grenzübergang bewirkt eine Unbestimmtheit, da die Gesetzmäßigkeit der einen und der anderen Qualität nicht vollständig in Deckung gebracht werden können. Die Wellenmechanik ergibt sich durch Grenzübergang aus der Mechanik endlich vieler Partikel, wenn immer mehr Partikel betrachtet werden.)

Von vornherein kann nie gesagt werden, wie weit induktiv gefolgert werden kann und wo Grenzprozesse vorliegen. Der hypothetische Charakter des induktiven Schließens besteht im Kern in der Annahme, wie weit der Geltungsbereich des Induktionsaxioms reichen soll. Er besteht in der Annahme, dass in diesem Gebiet keine unvorhergesehenen Grenzübergänge (sprich in der Anwendung: Katastrophen) auftreten. Wo die Aussagen der modernen Naturwissenschaft grenzenlos werden (etwa bezüglich der Entstehung der Welt, der Evolutionsgeschichte im Ganzen, den Ausdehnungen des Weltalls), schlagen sie notwendig um in science fiction, die ihrerseits dann nur noch vom prickelnden Reiz der unvorhergesehenen Wendungen lebt. In komplexen Anwendungen wie Kernphysik oder Veränderung von Genmaterial wird das Induktionsaxiom schlicht zum Glauben, dass sich Störungen von allein regeln und ausgleichen werden und die unbekannten zugrunde liegenden Prozesse zur Stabilität statt zum Bruch führen.

So findet sich die moderne Naturwissenschaft in Kierkegaards Sphärensystem wieder. Wenn Induktions- und Grenzwertaxiom hart auf hart prallen, kann für ein Gelingen nur noch die Gültigkeit einer der 3 Annahmen sprechen:

Obwohl in Kierkegaards Sphärensystem Arbeit und Wissenschaft nicht vorkommen, scheint es der Fluchtpunkt in der Konstellation der modernen Logik zu sein.

3. Astronomie

3.1. Magie

Wenn die wissenschaftliche Entwicklung letztlich auf Ästhetik, Ethik oder Religion zurückkommt, ist hiervon doch allein die Ästhetik in der Lage, quantifizierbare Größen zu liefern. Beispiele sind die musikalischen Harmonien oder der Goldene Schnitt.

Für die Wissenschaft bekommt die Ästhetik dadurch einen Doppelcharakter. Einerseits dient sie als Leitfaden für die Forschung und als Entscheidungskriterium. Wenn alternative Theorien oder Modelle in Frage kommen, wird das ästhetisch schönere bevorzugt. Solche Modelle strahlen Faszination aus, sie werden auch mit dem Argument der Denkökonomie begründet, wonach das einfachste Argument das beste ist.

Als quantifizierbare Aussage wirkt sie andererseits wie eine eigene, höhere Bewegungsform. Wie alle anderen Bewegungsformen ist sie durch ihre spezifischen Symmetrien zu charakterisieren. So gilt z.B. für die Gravitation die Drehsymmetrie, für die Elektrodynamik die Ladungssymmetrie etc. Für die Ästhetik sollen Gesetze der Schönheit gelten. Sie sind jedoch überwiegend unbekannt und weitgehend der Intuition der Wissenschaftler überlassen. Spätestens in den Entwürfen für die Künstliche Intelligenz wird diese Frage aber praktisch, wo den Programmen Regeln vorgegeben werden sollen, dass sie wie der Forscher im Zweifelsfall nach der Ästhetik entscheiden können.

Die Ästhetik ist damit der Wissenschaft der Maße eng verwandt. Auch die Maße tragen den Doppelcharakter von Qualität und Quantität. Dass überhaupt die Bewegungsformen nach Symmetrien klassifiziert werden, ist bereits Ausdruck einer ästhetischen Herangehensweise, und diese soll dann auf sich selbst bezogen ihrerseits durch Symmetrien beschrieben werden.

Dieser Doppelcharakter kann nur erfüllt werden, wenn mit der Mathematik nicht nur Symmetrien dargestellt werden, sondern auch in der Mathematik Symmetrie, Ästhetik gelten soll. Damit die Mathematik eine Wissenschaft der Maße wird, reicht es nicht aus, dass die empirischen Werte für Maße in der Natur erkannt werden, sondern diesen Zahlen muss auch in der Mathematik eine qualitative Sonderrolle zuerkannt werden.

Das führt zur Zahlenmythologie. Für alle natürlichen Zahlen lassen sich qualitative Aussagen finden, z.B.:

Weiter folgt aus der Zahlenmythologie, dass bestimmte Zahlen gegenüber anderen bevorzugt werden. So übt die 7 eine besondere Anziehungskraft aus, die 19 gilt für mehr als die 17, die 9 für mehr als die 11, etc. Der 12 und verschiedenen Vielfachen von der 12 wie 48, 60 oder 72 und auch der Quadratzahl von 12 (144) und der Kubikzahl von 12 (1728) wird eine besondere Bedeutung zu Ordnungszwecken zugeschrieben.

Andere ästhetische Zahlen werden aus der Geometrie abgeleitet, so ergibt sich der Goldene Schnitt, wenn im regelmäßigen Fünfeck je zwei gegenüberliegende Seiten verbunden werden. Der Schnittpunkt teilt die Verbindungsstrecken gemäss dem Goldenen Schnitt:

Für die Zahlenmythologie gibt es zwei mögliche Auflösungen: Entweder es gelingt, die Ästhetik als die Symmetrie einer eigenen, klar definierten Bewegungsform der Natur zu erkennen. Dann sind die Aussagen der Zahlenmythologie die Eigenschaften einer bestimmten Kraft in der Natur, die wie jede andere untersucht, entdeckt und wissenschaftlich formuliert werden kann. Das würde aber bedeuten, dass die Ästhetik nicht weiter als meta-wissenschaftlicher Leitfaden dienen kann, sondern eine Bewegungsform neben anderen ist. Dann gibt es außerhalb der Wissenschaft überhaupt keinen quantifizierbaren Leitfaden und die im vorigen Kapitel beschriebene Konstellation kann nur noch in Ethik oder Religion aufgelöst werden.

Oder es wird akzeptiert, dass die Ästhetik eine Sonderrolle erhält, die selbst nicht Gegenstand der Wissenschaft sein kann, und doch in der Wissenschaft eine präzis zu bestimmende Bedeutung hat. Das führt zur Magie. Denn die Magie ist die Lehre, welche Anziehungskräfte es in der Natur gibt, die nicht wissenschaftlich formuliert werden können. Welche Zahlen passen zusammen, d.h. zwischen welchen Zahlen gibt es Sympathie oder Antipathie, welche sind schöner und welche weniger schön, welche haben eher Ordnungscharakter oder Ausnahmecharakter usw.

Wenn die Ästhetik als Leitfaden für die Wissenschaft ernst genommen wird, führt sie damit notwendig zu Zahlenmythologie und Magie. Die reinen ästhetischen Gesetze sind Verhältnisse zwischen Zahlen oder allgemeiner Verhältnisse zwischen Punkten in bestimmten geometrischen Räumen. So können es die Abstände zwischen natürlichen Zahlen auf der Zahlengerade sein, harmonische Beziehungen zwischen Punkten in geometrischen Figuren, bestimmte Perioden in zeitlichen Entwicklungen.

Für die Magie spielt neben der Zahlenmythologie die Geomantie eine Schlüsselrolle. Hierfür werden qualitative Begriffe wie Wasser, Fische, Schütze, Bär in einer Art Piktogramme dargestellt. Die Piktogramme werden vereinfacht zu Punktmustern. Einige Beispiele, die Agrippa von Nettesheim aufführt (S. 326):

Geomantie

Figur 1 Geomantische Figuren

Tabelle der geomantischen Figuren, Teil 1; aus: Agrippa von Nettesheim "De Occulta", Nördlingen 1987, S. 326

Die Piktogramme führen weiter zu Spekulationen über die Schrift, überhaupt können die Buchstaben ihrerseits als Piktogramme angesehen werden. Am weitesten geht die hebräische Schrift und ihre Auswertung durch die Kabbala. Die hebräischen Buchstaben sind gleichzeitig Zahlzeichen und sie sollen unmittelbar Sternbilder darstellen. So kann ein Wort als Schriftzeichen, als Zahlenwert und als Konstellation interpretiert werden. Buchstaben und Worte können ihrerseits weiter in der Gestalt von magischen Quadraten, Himmelsfiguren etc. angeordnet und nach ihrem Zahlenwert ausgewertet werden.

Ähnliche Mehrdeutigkeiten kennt die griechische Mythologie. Der Götterbote Hermes soll die siebensaitige Leier, die Astronomie und die frühesten griechischen Schriftzeichen begründet haben. Für die Schriftzeichen dienten ihm die keilförmigen Flugformationen der Kraniche als Vorbild. Gleichzeitig beherrschte er die Wahrsagerei aus der Stellung von Kieseln im Wasser und aus Würfeln.

Für die Magie ist die Astronomie neben Zahlenmythologie und Geomantie der dritte Baustein. Über die Astronomie wird der Bezug zur Wirklichkeit hergestellt, indem nun die Zeichen nicht mehr bloße Ideen des Magiers sind, sondern als Gestalten im Weltall natürliche Exstenz besitzen.

Umgekehrt gibt es sicherlich keine moderne Wissenschaft, die einen so unmittelbar ästhetischen Reiz ausübt wie die Astronomie. Vor allem aber hat sie seit der Allgemeinen Relativitätstheorie einen ähnlichen Doppelcharakter wie die Ästhetik und die Mathematik als Wissenschaft der Maße. Denn bei allen anderen Naturforschungen geht es darum, natürliche Eigenschaften in Raum und Zeit darzustellen. Die Gravitation dagegen strukturiert direkt Raum und Zeit, daher ist die Gravitationstheorie an der Grenze der Anschauungsmöglichkeit angesiedelt.

3.2. Beobachtungsmaterial

Sternkataloge gibt es seit dem Beginn der Wissenschaft. Aus China liegen seit dem 2. Jahrtausend v.u.Z. Aufzeichnungen über ungewöhnliche Himmelserscheinungen vor. In Europa beschrieb im 3. Jahrhundert v.u.Z. der Arzt und Dichter Aratos am mazedonischen Hof in seinen "Phänomena" (Himmelserscheinungen) die Sterne und stellte die mythologischen Sternbilder zusammen. Im 2. Jahrhundert v.u.Z. beobachtete Hipparch neue sichtbare Himmelsobjekte (nach moderner Erkenntnis wird es sich um Novae gehandelt haben). Um durch Vergleich das Entstehen weiterer Objekte bestimmen zu können, klassifizierte er in seinem Katalog 500 Sterne in 6 Größenklassen gemäss ihrer Leuchtkraft. Diese Einteilung wird bis heute beibehalten, wie auch der Himmel weiter in 88 Sternbilder aufgeteilt wird, davon über 50 aus der griechischen Zeit.

Ptolemäus schuf um 150 mit dem "Almagast" das Standardwerk für die gesamte Zeit bis zum Einsatz von Fernrohren, in dem 1022 Sterne aufgeführt sind. Seit dem 19. Jahrhundert überschlagen sich die Ereignisse. 1862 wurde in der Bonner Durchmusterung der gesamte Himmel kartographiert mit 324.198 Sternen. Im 20. Jahrhundert wurde in den 20er Jahren das 2,5m-Spiegelteleskop auf dem Mount Wilson errichtet. Damit beobachtete Hubble auf 2% des sichtbaren Himmels 43.000 Nebel. In den 40er Jahren kam das 5m-Spiegelteleskop auf dem Mount Palomar dazu und um 1970 das 6,1m-Spiegelteleskop in der Sowjetunion. Angesichts der Störungen durch die Erdathmosphäre ist hiermit eine gewisse Grenze erreicht und erst im Weltall installierte Teleskope versprechen weitere Fortschritte.

Vom Mount Palomar wurden auf je 879 34 x 34 cm Rot- und Blau-Aufnahmen alle Sterne bis zur 20. Größenordnung der Leuchtkraft photographiert. Dies Werk kann nur noch statistisch ausgewertet werden und dient wie Hipparchs Katalog als Vergleichsmittel für die Einordnung neuer Himmelserscheinungen.

Die größten Fortschritte wurden aber durch die Öffnung immer neuer "Fenster" zur Beobachtung des Himmels erzielt.

Das Bild der Himmelserscheinungen ist mit diesen Hilfsmitteln vollständig umgekrempelt worden. Fast jährlich werden neue Erscheinungen wahrgenommen, die in keine bekannte Theorie passen.

Schon 1913 gelang mit den Hertzsprung-Russell-Diagrammen eine erste Ordnung der Sterne nach Leuchtkraft, Masse und Leuchtfarbe. Im Grunde war das der erste Ansatz, die Sterne anders als nach ihrer Zuordnung zu Sternbildern zu gruppieren. Nach dieser Vorstellung stehen sie nicht mehr starr in einer bestimmten Konstellation, sondern nehmen einen Entwicklungsweg durch Stadien wie Rote Riesen oder Weiße Zwerge. Schon rein sprachlich wurde mit der mythologischen und astrologischen Tradition gebrochen, Märchenfiguren und Bezeichnungen aus comics (Big Bang, Black Hole, Wurmlöcher, Supernova) bestimmen seither die Phantasie.

In engem Zusammenhang mit der Quantenmechanik wurden 1920 bis 1939 die Grundlagen für die neue Astronomie gelegt. Entsprechend dem neuen Atommodell kann aus dem Farbspektrum der Sterne und Galaxien ihre chemische Zusammensetzung abgelesen werden. 1912 entdeckte Slipher die Rotverschiebung der Spektrallinien, wodurch die Fluggeschwindigkeit der Sterne und Galaxien berechnet werden konnte. Mit dem Beobachtungsmaterial vom Mount Wilson stellte Hubble in den 20er Jahre fest, dass sich alle Himmelsobjekte mit wachsender Entfernung immer schneller von uns fortbewegen und daraus wurde die Urknalltheorie abgeleitet, indem rückwärts gerechnet wurde, wie lange diese Expansion schon erfolgt sein kann. Hiernach ist das Weltall etwa 16 Mrd. Jahre alt.

Aufgrund der statistischen Auswertung der Sternenhäufigkeit und ihrer durchschnittlichen Größe können dann auch statistische Vermutungen über die gesamte Ausdehnung, die gesamte Masse und die Verteilung der chemischen Elemente im Weltall getroffen werden. Hier spielten magische Zahlen eine gewisse Rolle. So wurde angenommen, dass es 10 hoch 40 mal 10 hoch 40 Nukleonen (Protonen und Neutronen) im Weltall gibt, dass der Radius des Universums 10 hoch 40 mal so groß ist wie der Radius eines Elektron und die elektrostatische Anziehungskraft zwischen Elektron und Positron 10 hoch 40 mal so groß ist wie ihre Gravitationsanziehungskraft.

Das alles grenzt aber an Spekulation, da vorausgesetzt wird, dass alle wesentlichen Naturgesetze bekannt sind und sie sich im Verlauf so langer Zeiträume nicht ändern. Im folgenden soll ein kurzer Überblick über die neu entdeckten Himmelserscheinungen gegeben werden.

3.2.1 Supernovae

1919 erkannte der schwedische Astronom Lundmark die absolut ungewöhnliche Helligkeit bestimmter Himmelserscheinungen und interpretierte 1921 historische Berichte als Beschreibungen von Supernovä. Nach gegenwärtiger Erkenntnis wurden in den Jahren 185, 1054, 1066, 1572 und 1604 Supernovae beobachtet, die sich in unserer Galaxis ereignet haben. Besonders die 1054 von chinesischen Astronomen genau aufgezeichnete Supernova im Krebsnebel wurde das Musterobjekt. Dort kann sehr gut studiert werden, welchen weiteren Verlauf sie bis heute nimmt.

Erstaunlicherweise ging die Theorie weitgehend den Beobachtungen voraus. 1930 - 32 berechneten unabhängig voneinander Chandrasekhar und Landau die kritische Masse, die für extrem verdichtete Materie notwendig und möglich ist. Unmittelbar danach wurde 1932 durch Chadwick das Neutron entdeckt. 1939 berechneten Oppenheimer und Volkoff wie ein Neutronenstern aussehen kann. Hier handelt es sich um einen Stern, der praktisch aus einem einzigen Atomkern besteht, der jedoch 10 hoch 57 Neutronen und Protonen umfasst. Auf 10 - 20 km Durchmesser ist eine Masse zusammengeballt, die grob der Sonnenmasse entspricht.

1934 führten Baade und Zwicky die Bezeichnung Supernova ein. Allmählich entstand die Theorie, wie aus einem Stern, der größer als 1,5 Sonnenmassen ist, eine Supernova entstehen kann, wenn er sein ganzes Brennmaterial verbraucht hat und dadurch die Energiebilanz umkippt. Das kann einen Kollaps auslösen. Die äußere Materiehülle wird unter Abgabe riesiger Energiemengen abgestoßen (daher die hohe Leuchtkraft), der Stern explodiert. Im Krebsnebel können die Reste der Explosion beobachtet werden.

Für noch größere Sterne mit mehr als 2,5 oder 3 Sonnenmassen sagten bereits Baade und Zwicky die Möglichkeit eines vollständigen Gravitationskollaps voraus. Die ungeheure Materieverdichtung führt normalerweise zu einem Objekt, das nach den vorangegangenen theoretischen Arbeiten nur ein Neutronenstern sein kann. In einer weiteren Arbeit von 1939 hielten Oppenheimer und Snyder als Endprodukt aber auch ein Schwarzes Loch für möglich. Denn der Neutronenstern kann eine bestimmte kritische Masse nicht überschreiten. Wenn aber der kollabierende Stern von größerer Masse ist, führt der Kollaps zu einer Materieverdichtung, deren Gravitationskraft so stark wird, dass sie keinerlei Strahlung, auch kein Licht mehr entweichen lässt und daher als Schwarzes Loch bezeichnet wurde. Diese Schlussfolgerungen galten jedoch lange als science fiction.

1937-1940 führte Zwicky die erste Palomar-Supernova-Untersuchung durch und betrachtete 122 Himmelsregionen mit 3000 Galaxien. Hier konnten 12 Supernovae festgestellt werden. Die Theorie der Supernovae blieb allerdings weitgehend in der Nähe von science fiction, bis durch die Radioastronomie die Beobachtungssituation völlig umgewälzt wurde. 1948 wurden extragalaktische Radioquellen entdeckt. 1953 wurden sie von Schklowski als Synchrotronstrahlung in einem bewegten Magnetfeld erklärt. 1954 identifizierten Baade und Minkowski den Krebsnebel als Radioquelle, 1962 konnte dort auch Röntgen-Strahlung nachgewiesen werden.

Der Durchbruch erfolgte 1967 mit der Entdeckung von Pulsaren am Radioteleskop von Cambridge. Im Gegensatz zu allen anderen Himmelsobjekten blinken sie in schneller, periodischer Folge. Im ersten Moment sah es nach dem Wirken fremder Intelligenz aus, aber dann konnte dieses Phänomen erklärt werden durch schnell rotierende Neutronensterne. Sie haben als einzige Himmelsobjekte die nötigen Eigenschaften, um das Beobachtungsmaterial von Pulsaren erklären zu können.

Als dann im Krebsnebel, der Supernova von 1054, auch ein Pulsar nachgewiesen wurde, war das die gesuchte Bestätigung. Er pulsiert in allen Wellenlängen, im optischen Bereich und den Radiobereichen. Obwohl es noch keineswegs eine umfassende, schlüssige Theorie der Neutronensterne oder der Pulsare gibt, gilt seither die Theorie der Supernovae als in den Grundzügen gesichert. Für die Geschichte der Astronomie war das ein Wendepunkt, da endgültig die alte Vorstellung von ewiggleichen Sternen und starren Konstellationen aufgegeben wurde und die Existenz neuartiger Himmelserscheinungen akzeptiert werden musste.

3.2.2. Pulsare

Die Blinkperiode der Pulsare ist so genau wie die von den besten Atomuhren. Die Periode kann allerdings von einer Länge auf eine andere springen. Auch sind Unterperioden nachgewiesen worden, die die Grundperiode überlagern. Die Periodenlänge schwankt bei verschiedenen Pulsaren zwischen 0,033 und 4,3 Sekunden.

Der Pulsar im Krebsnebel pulst in allen Wellenlängen, andere Pulsare nur in bestimmten Bereichen. Die Röntgenpulse haben oft größere Längen von 1 Sekunde bis zu vielen Minuten.

Nach der Theorie sind Pulsare Neutronensterne. Durch ihre Entstehung aus einer Supernova ist erklärlich, warum sie rotieren und von einem rotierenden Magnetfeld umgeben sind. Eine langsame Abbremsung der Rotation setzt Energie frei, die z.T. in Strahlungsenergie umgesetzt wird, z.T. in kinetische Energie, wodurch die Gaswolke der Supernova z.B. im Krebsnebel mit 1/10 Lichtgeschwindigkeit auseinandergetrieben wird. Wenn Teilchen in das rotierende Magnetfeld kommen, werden sie wie in einem irdischen Teilchenbeschleuniger beschleunigt und erhalten so viel Energie, dass sie sich vom Neutronenstern lösen können. Ihre Bewegungsrichtung erfolgt tangential zur Bewegung der Elektronen im elektrischen Feld, das vom Magnetfeld induziert wird. Wie ein Leuchtturm überstreicht der rotierende Stern mit dieser Strahlung die Umgebung und so ist das Blinken zu erklären. Die Periodenlänge lässt auf die Rotationsgeschwindigkeit schließen.

1982 wurden allerdings superschnelle Pulsare entdeckt, die 20mal schneller pulsieren als alle vorher bekannten und vor allem viel älter sind. Der Pulsar im Krebsnebel ist keine 1000 Jahre alt, die superschnellen Pulsaren dagegen wohl um die Milliarde Jahre. Da sie dennoch wesentlich schneller pulsieren, versagt hier die alte Theorie der Pulsare. Es wird vermutet, dass ein alter Neutronenstern, der schon praktisch zur Ruhe gekommen und abgekühlt ist, die Materie von einem Begleiter zu sich zu ziehen vermochte und mit der Massenvergrößerung vergleichbar einer Pirouette wieder in Rotation geriet. So wäre die höhere Rotationsgeschwindigkeit zu erklären und aufgrund der geringeren Temperatur, dass die Rotation fast nicht abgebremst wird.

Die Theorie der superschnellen Pulsare ist aber nur wenig abgesichert. Aber ihre Entdeckung zeigt, welcher Gesinnungswandel in der Astronomie erfolgt ist. Die Entdeckung der Pulsare 1967 war noch so lange vor der Öffentlichkeit zurückgehalten worden, bis 1968 eine bündige Theorie für eine natürliche Erklärung vorlag, um keine Spekulationen über grüne Männchen im All zu provozieren. Obwohl bei den superschnellen Pulsaren bisher noch keine vergleichsweise anerkannte Theorie vorliegt, können sie keine große Aufregung mehr auslösen.

3.2.3. Quasare und kosmische Jets

Quasare wurden ebenfalls durch die Radioastronomie schon 1963 entdeckt, bis 1981 waren 1500 bekannt, die am ganzen Himmel verteilt sind. Im Gegensatz zu den Pulsaren geben sie der Theorie bisher unlösbare Probleme auf.

Als erstes fiel ihre ungewöhnliche Rotverschiebung auf, wonach sie sich mit gewaltigen Geschwindigkeiten (bis zu 1/3 Lichtgeschwindigkeit) von uns wegbewegen und gemäss dem kosmologischen Modell daher äußerst weit entfernt sein müssen. Es sind überhaupt die am weitesten entfernten bekannten Himmelsobjekte.

Wenn von dieser Entfernung ausgegangen wird, lässt ihre Leuchtkraft auf gewaltige Massen schließen. (Nach einer neueren Theorie kann vermutet werden, dass sie möglicherweise doch näher und daher kleiner sind, falls ihr Licht durch Gravitationslinsen gebündelt wird. Allerdings sind bis 1987 konkret nur bei 7 Quasaren Gravitationslinsen vermutet und bei 4 wirklich nachgewiesen.)

Trotz ihrer riesigen Masse, die nur mit Galaxien vergleichbar ist, sind die Quasare neben den Supernovae die einzigen Himmelsobjekte, deren Helligkeit deutlichen Schwankungen unterliegt. Bei der Radiostrahlung liegt sie teilweise im Stundenbereich. Es scheint sich also um explodierende Galaxien zu handeln. Wenn die Schwankungen so schnell erfolgen können, bedeutet das, dass trotz der gewaltigen Masse die Ausdehnung der Quasare nicht sehr groß sein kann.

Das Strahlungsmaximum der Quasare liegt im Infrarotbereich. Die Beobachtung von Quasaren führt zur Kernfrage, was im Zentrum von Galaxien geschieht. Aufgrund der hohen Sterndichte können sie fast nicht direkt beobachtet werden. Die hohe Sterndichte muss aber dazu führen, dass es gehäuft zum Zusammenstoß von Sternen kommt und dass im Zentrum wie bei einer Supernova ein ungeheurer Gravitationskollaps droht, allerdings mit weitaus größeren Ausmaßen. Daher kann vermutet werden, dass sich im Innern von Galaxien ein riesiges Schwarzes Loch befindet.

Quasare könnten entsprechend durch zwei Modelle erklärt werden:

Aber das ist alles sehr vage. Weiter fällt bei Quasaren auf, dass die Radioquellen nicht mit der optischen Quelle übereinstimmen, sondern sich auf 2 Komponenten außerhalb der optischen Quelle verteilen.

Insofern sind sie den kosmischen Jets ähnlich, die im Innern von Galaxien entstehen können. Bereits 1917 wurde ein optischer Jet entdeckt, seit 1953 Radiojets, bis heute sind über 70 bekannt. Sie können bis zu einer Million Lichtjahre lang sein und enden in den Radioquellen. In manchen Fällen schießen sie mit 1/4 Lichtgeschwindigkeit aus der Galaxis hervor, bisweilen sogar fast mit Lichtgeschwindigkeit.

Die Jets können symmetrisch, aber auch verbogen sein. Es ist sogar möglich, dass sie rechtwinklig abknicken und dennoch den Materie- und Energietransport aufrechterhalten.

Die theoretische Erklärung steht vor ähnlichen Schwierigkeiten wie bei den Quasaren. Möglicherweise entstehen sie durch ein rotierendes Schwarzes Loch im Innern einer Galaxis.

3.2.4. Burster

Durch die Gammastrahlenastronomie sind extrem kurze Ausbrüche beobachtet worden, die keinen optischen Objekten zugeordnet werden können. Daher ihr Name (englisch: burst für Ausbruch). Ihre Dauer beträgt 0,01 bis 10 Sekunden, aber hierbei verstrahlen sie pro Sekunde soviel Energie wie die Sonne in einer Woche.

Erstmals wurden sie in den 1970er Jahren nachgewiesen, praktisch täglich kann irgendwo ein Burster beobachtet werden. Die Quelle kann nur wenige km Durchmesser haben. Die Neutronensterne sind die einzigen Himmelsobjekte, die genügend Energie für so einen Ausbruch liefern könnten. Aber Gründe sind dafür nicht bekannt, auch konnten keine Neutronensterne als Quelle nachgewiesen werden.

Für ihre Erklärung gibt es 40 Modelle, eins davon führt wieder zu Schwarzen Löchern zurück. 1974 zeigte Hawking theoretisch, dass Schwarze Löcher durch ihre Gravitationswirkung den Raum in ihrer Umgebung dahin verändern, dass dort im Gegensatz zur Sogwirkung ein Teilchenstrom entstehen kann. Er zeigte weiter, wie ein Schwarzes Loch explodieren kann und seine Masse in der Energie der Gammastrahlen freiwerden könnte. Für die Erklärung der Burster müsste es sich jedoch um Minilöcher handeln, die nach Hawking kurz nach dem Urknall entstanden sind, wo die Materieturbulenz sich an manchen Punkten zu solchen Löchern verdichtet hat.

3.2.5. Kugelhaufen

Einen ganz andern Charakter haben die Kugelhaufen von Sternen. Sie sind lange bekannt, es handelt sich um die ältesten nachgewiesenen Himmelsobjekte, sie dürften 16 Mrd. Jahre alt sein. Obwohl es in ihnen keine Supernovae gibt, enthalten sie auch schwere chemische Elemente. Aus dem Urknall können die nicht stammen, so gibt es für sie keine Erklärung.

Überhaupt sind die Kugelhaufen für die Urknalltheorie harte Nüsse, die keineswegs geknackt sind. In unserer Galaxis gibt es 125 Kugelhaufen, in anderen Galaxien zum Teil Tausende. Ihr Alter, ihre chemische Zusammensetzung und ihr Auftreten passen nicht in die bekannten kosmologischen Modelle. Das zeigt den hypothetischen Charakter der astronomischen Grundtheorien.

3.2.6. Schwarze Löcher

An dieser Stelle ist nur kurz zusammenzustellen, wo Schwarze Löcher in der Theorie aufgetreten sind:

Lange Zeit galten Schwarze Löcher als reine sience fiction. Erstaunlicherweise wurden sie am ehesten in den osteuropäischen Ländern ernst genommen. 1964 begannen Zeldovich und Guseynov mit der systematischen Suche. 1971 wurde mit dem Satelliten "Uhuru" im Sternbild Schwan ein Himmelsobjekt entdeckt, das auf die Existenz eines Schwarzen Loches schließen lässt.

Entsprechend ihrer Natur können Schwarze Löcher nur indirekt nachgewiesen werden. Sie sind dann zu vermuten, wenn sich ein anderes Himmelsobjekt so bewegt, als wäre ein zweites Objekt in seiner Nähe, das aber nicht beobachtet werden kann. Aus der Bewegung des sichtbaren Objekts sind Daten für das zweite Objekt zu erschließen (wie dessen Masse, Anziehungskraft, Geschwindigkeit etc.) und wenn diese mit den theoretischen Werten für Schwarze Löcher übereinstimmen, könnte eins entdeckt sein.

3.2.7. Urknall

Der Urknall ist ein Weißes Loch (eine nackte, d.h. sichtbare Singularität), aus der das Weltall entstanden ist. Seine Theorie geht auf die Allgemeine Relativitätstheorie von Einstein zurück (1915). Wenn die Raumzeit gekrümmt ist, kann sie auch Singularitäten enthalten, worauf sofort nach Erscheinen von Einsteins Arbeiten Schwarzschild hinwies. Weitere Berechnungen von Penrose und Hawking in den 1960er Jahren haben ergeben, dass so ein Raum sogar Singularitäten enthalten muss. (Zur Veranschaulichung: Wenn eine Kugel vollständig behaart ist, ist es unmöglich sie so zu kämmen, dass kein Haar stehen bleibt.) Die Schwarzen und Weißen Löcher sind die Singularitäten.

Aus der Krümmung der Raumzeit folgerte weiter 1922 rein theoretisch der sowjetische Astronom Friedmann die Möglichkeit, dass das Weltall expandiert. Das passte mit den Daten überein, die ebenfalls in den 1920er Jahren Hubble sammelte, und so stellte 1927 der belgische Priester Lemaitre die Urknallthese auf. Sie wurde vor allem von Gamow physikalisch ausgebaut und begründet. Er sagte 1948 als mögliche experimentelle Überprüfung die Existenz einer Hintergrundstrahlung voraus, die vom Urknall übriggeblieben ist und gleichmäßig im ganzen Universum verteilt sein muss.

Aufgrund ihres spekulativen Charakters wurde die Urknalltheorie jedoch lange nicht akzeptiert, auch nicht von Einstein. Vielmehr galt in den 1950er Jahren die steady-state-Theorie für wahrscheinlicher, die 1948 Bondi, Gold und Hoyle vorgetragen hatten. Sie akzeptieren die Erkenntnis, dass sich das Weltall ausdehnt, nehmen aber an, dass in dem freiwerdenden Raum ständig spontan neue Sterne und Galaxien geschaffen werden und dadurch die Materiedichte unverändert bleibt. Auch ihre Theorie war jedoch rein spekulativ und konnte weder experimentell nachgewiesen werden, noch konnte theoretisch begründet werden, welche Ursachen zur Entstehung neuer Materie aus dem leeren, sich ausdehnenden Raum führen sollten.

1965 wurde die von Gamow vorausgesagte Hintergrundstrahlung entdeckt. Damit war kein Halten mehr und seither ist die Urknalltheorie fast allgemein anerkannt.

Möglicherweise erweist sich diese Entdeckung aber als deren Ende und führt zu ganz neuen Entwürfen. Denn seit der Speziellen Relativitätstheorie von Einstein (1905) war angenommen worden, dass im Weltall alle Geschwindigkeiten nur relativ im Vergleich zueinander gemessen werden können. Die hohen Geschwindigkeiten der entfernten Galaxien waren dadurch erklärt worden, dass der Raum selbst sich ausdehnt und sich insofern alle seine Bestandteile voneinander entfernen, aber für sich gesehen unbewegt sind. Wenn es aber eine gleichmäßig im All verteilte Hintergrundstrahlung gibt, kann sie als Maßstab genommen werden, um ihr gegenüber die absolute Geschwindigkeit und ihre Richtung zu bestimmen. Seit Ende der 1970er Jahre untersucht eine Gruppe um Peebles die Verteilung der Galaxien im All. Offenbar bilden sie Haufen und die Haufen wiederum Superhaufen. Das ist die größte bisher festgestellte Struktur im Weltall.

1977 wurde durch Vergleich mit der Hintergrundstrahlung festgestellt, dass unsere Milchstrasse mit 650 km/s durch das Weltall rast. Diese Bewegung kann nicht mehr relativistisch aus der Expansion des Weltalls erklärt werden. Entweder gibt es noch unbekannte Kräfte, die möglicherweise in den Dimensionen der Haufen und/oder Superhaufen von Galaxien wirken. Oder es gibt irgendwo im All ungeheure Massen, die durch ihre Anziehungskraft diese Bewegung der Milchstrasse auslösen.

Beides steht aber in Widerspruch zur Urknalltheorie. Die ist nur konsistent, wenn vorausgesetzt wird, dass das Weltall im Ganzen von äußerst einfacher Struktur ist. Es dehnt sich gleichmäßig aus, zwischen den Galaxien gibt es nur die Hintergrundstrahlung und es muss in allen Richtungen und Raumgebieten gleichartig sein (Isotropie und Homogenität). Hawking wies nach, dass bei nur geringfügigen Abweichungen die Entwicklung seit dem Urknall nicht erklärt werden kann.

Die Urknalltheorie gerät in einen Kreis, dass ihre Voraussetzungen und Resultate sich gegenseitig bedingen. Schon Hubble musste zur Messung der Geschwindigkeiten weit entfernter Galaxien weitreichende Annahmen machen. Die Rotverschiebung, aus denen die Geschwindigkeiten berechnet werden, darf durch keine anderen, unbekannten Kräfte im All entstanden sein. Die Helligkeit von Sternen muss zu allen Zeiten und Orten immer gleich sein, da aus der Helligkeit auf die Massen geschlossen wird. Inzwischen wird jedoch immer deutlicher, dass die Bewegungseigenschaften der Galaxien nicht allein aus der sichtbaren Materie erklärbar sind. Es muss auch dunkle Materie geben, die durch keine Strahlung bemerkbar wird, die mit den bisher entwickelten Beobachtungsmethoden nachweisbar ist. Während die Urknalltheorie ausschließlich durch den Nachweis der Hintergrundstrahlung gedeckt ist, wächst das Beobachtungsmaterial insgesamt über den Rahmen hinaus, der durch diese Theorie festgelegt ist. Die Urknalltheorie erfordert vom Weltall ein Ausmaß an Symmetrie, das nicht mit der Realität überein zu stimmen scheint.

3.3. Kosmologische Modelle

Konstellationen verlieren ihren mythologischen Charakter, aber das Bedrohliche bleibt (Schwarze Löcher). An die Stelle der Gewalt der Götter tritt die Gewalt der Natur.

Kosmologische Modelle bewegen sich prinzipiell in einem Paradox. Sie wollen das All beschreiben, können dessen Eigenschaften aber nicht in anderen Räumen einbetten. Das ist zwar rein mathematisch möglich, widerspricht aber den physikalischen Annahmen. Das All soll als Ganzes studiert werden, und kann doch unmöglich von Außen (also aus einem größeren, umgebenden Raum) wie ein Gegenstand angesehen werden.

Das ist kein abstrakter Gedanke, sondern in der Theorie der Wurmlöcher ein konkretes Problem. Wenn der Raum gekrümmt ist, ist es theoretisch möglich, dass wie bei einem gefalteten Blatt Papier weit voneinander entfernte Flächenteile miteinander verheftet werden können. Diese Verbindungspunkte wurden als Wurmlöcher bezeichnet und es wurde vermutet, dass sie im All als Schwarze oder Weiße Löcher auftreten. Ihre Existenz erfordert aber mindestens eine weitere Dimension, in der die Krümmung dargestellt wird (so wie das gekrümmte zweidimensionale Blatt Papier sich nur im dreidimensionalen Raum heften lässt).

So oder so entsteht die Paradoxie, wie eine Krümmung gedacht werden soll, wenn es keinen Raum gibt, in dem sie sich krümmen kann. Wird nun eine weitere Dimension hinzugenommen, so wiederholt sich dort auf höherer Ebene das gleiche Problem. Mit einem Wort: Wenn von endlich vielen Dimensionen ausgegangen wird, sind qualitative Grundeigenschaften des Raumes zu bestimmen. In der klassischen Physik war vorausgesetzt worden, dass der Raum nicht gekrümmt ist, und außer bei Kant war gar nicht aufgefallen, dass das eine qualitative Aussage ist.

Einstein setzte dagegen die Annahme, dass der Raum gekrümmt ist und folgerte daraus weiter, dass er nicht leer sein kann. Wenn es dagegen unendlich viele Dimensionen gibt, ist eine konsistente Naturwissenschaft nicht möglich, da auch unendlich viele Kräfte wirken und ihr Zusammenwirken schlicht unübersehbar wird.

Diese Paradoxie ist eine Verallgemeinerung des alten Gedankens, dass das Weltall nicht unendlich groß sein kann, da sich dann die Leuchtkraft auch entfernter Sterne so summieren müsste, dass der Nachthimmel strahlend hell wird und keine einzelnen Sterne zu identifizieren sind (Paradox von Olbers).

Hier sind nur zwei Auflösungen denkbar: Entweder ist das All endlich, oder der größte Teil des Alls ist so weit entfernt bzw. bewegt sich so schnell weg, dass er nicht sichtbar ist, weil seine Strahlung uns nie erreicht. Der größte Teil des Alls verhält sich damit wie ein am Horizont verschmiertes Schwarzes Loch, oder umgekehrt: der sichtbare endliche Teil des Alls verhält sich wie ein endliches, sich ausdehnendes Weißes Loch.

In allen Fällen ist der Erkenntnisbereich für die Naturwissenschaft endlich und das ist der Ansatz für die kosmologischen Modelle, selbst wenn theoretisch angenommen wird, dass es sich hier nur um den endlichen erkennbaren Ausschnitt eines viel größeren Raums handelt.

Die Grenzen der Endlichkeit können sich mit den Fortschritten der Forschung durchaus verschieben. So ist es keineswegs prinzipiell ausgeschlossen, dass die Theorie der Wurmlöcher tatsächlich dazu führt, das All in mehr als 4 Dimensionen zu denken. Aber jeder Fortschritt kann nur eine andere endliche Dimensionszahl bringen.

Im Grunde handelt es sich um ein Axiom: Entweder gibt s nur endlich viele verschiedene Kräfte in der Natur. Wenn es aber unendlich viele geben sollte, wirken bis auf einen endlichen Ausschnitt von ihnen alle in solchen Zeit- und Raumperioden, dass sie zunächst vernachlässigt werden können. Ihr Wirken kann auf isolierte Momente, auf Singularitäten begrenzt werden. Daraus folgt die grundsätzliche Relativität: Alle bekannten Naturgesetze gelten zunächst einmal nur innerhalb der endlichen Grenzen der menschlichen Erkenntnisfähigkeit und werden gebrochen in Singularitäten und Ausnahmekonstellationen.

Das klingt banal, ist aber eine grundsätzliche Einschränkung aller kosmologischen Modelle. Die kosmologischen Modelle haben ihre Bedeutung, da sie die Wechselbeziehungen der bekannten Naturgesetze beschreiben. Aber es handelt sich doch nur um Modelle, und es wird vermessen, wenn die Kosmologen anfangen, Gott zu spielen. Insofern unterscheiden sie sich von mythologischen und theologischen Weltentwürfen.

Mit der Endlichkeit sind aber Einmaligkeit und qualitative Aussagen gesetzt, unabhängig davon, wie die Endlichkeit erklärt wird. Erst seit der Allgemeinen Relativitätstheorie von Einstein wird konsequent versucht, diese eher philosophischen oder wissenschaftstheoretischen Überlegungen auf ihre naturwissenschaftlichen Folgen zu durchdenken.

Als Erstes schloss Einstein, dass ein gekrümmter Raum nicht leer sein kam. Damit nahm er eine alte griechische Vorstellung wieder auf, wonach das All durch raumfüllende geometrische Muster strukturiert ist und steht im Gegensatz zur philosophischen und naturwissenschaftlichen Tradition der Neuzeit. Denn wenn die Raumkrümmung in keinem umfassenderen Raum darstellbar ist, kann sie nur im Innern nachweisbar sein. Sie ist überall wirksam, indem sie die Bewegungslinien der Materie bestimmt. Mit der Radioastronomie sind in den letzten Jahrzehnten alle Gedankenexperimente zur Überprüfung dieser Theorie nachvollzogen und bestätigt worden!

Trotzdem gibt es im Raum Singularitäten. Bei Gravitationszentren (Materieverdichtungen) wird der Raum immer stärker gekrümmt und die Zeit wird langsamer. Das Schwarze Loch wirkt wie ein Sog auf alle umgebende Materie. Die Gravitationskraft wird so stark, dass sie alle anderen Kräfte überlagert: Alle Moleküle werden zerrissen, kinetische und Drehbewegungen werden gewaltsam zum Zentrum des Lochs ausgerichtet etc. Das führt zu einem ungeheuren Informationsverlust, indem alle Unterschiede zwischen verschiedenen Masseobjekten gleichgemacht werden, die ins Loch stürzen. (Aber was heißt schon, ins Loch stürzen, wo das Loch in keinen anderen Raum führt). Die Entropie nimmt zu und gemäss der Thermodynamik muss die Temperatur ansteigen. Dieser Gedankengang von Brekenstein (1971) war der Ansatzpunkt, das Schwarze Loch nicht nur als physikalischen Exoten anzusehen, sondern seine physikalischen Eigenschaften zu untersuchen und wenn möglich experimentell nachzuweisen.

Die Physik der Schwarzen Löcher ist daher so interessant, da hier tatsächlich aus dem kosmologischen Ansatz der Allgemeinen Relativitätstheorie konkrete nachprüfbare Schlussfolgerungen gezogen werden, die im Gegensatz zu den Annahmen der ganzen Geschichte der Astronomie stehen.

Eine andere Schlussfolgerung wird dagegen bisher weniger spektakulär erforscht. Wenn es einen leeren Raum gibt, in den die Dinge hineingestellt sind, verhalten sich die Dinge wie voneinander isolierte individuelle Objekte. Das war der Ansatzpunkt für die induktive Forschung, die vom Studium der einzelnen Dinge ausging, und dann folgerte, dass alle einzelnen Dinge je für sich den gleichen Bewegungsgesetzen folgen. Wenn dagegen der Raum gefüllt ist und alle Dinge Teile eines gemeinsamen Feldes sind, stehen sie in ständiger Wechselwirkung (und sei es durch indirekte Wirkungen), während es im leeren Raum nur dann zur Wechselwirkung kommt, wenn die isolierten Dinge aufeinanderprallen.

Der induktive Ansatz kann daher nicht mehr konsequent durchgehalten werden und die Physik muss den deduktiven Ansatz mindestens mit einbeziehen, indem sie sich in eine Feldphysik wandelt. Das gleiche gilt für die Mathematik. Die klassische Mathematik ging von endlichen Größen aus (endlichen Zahlenmengen, die an den Fingern abzuzählen sind und endlichen geometrischen Konstruktionen). Die Mathematik des 20.Jahrhunderts entwickelt sich zu einer Mathematik der Strömungen, wo zuerst die Strömung im Ganzen und dann ihre Auswirkungen auf die einzelnen Elemente in der Strömung untersucht werden.

Daher ist es auch kein Zufall, wenn Einstein ausgehend von der Allgemeinen Relativitätstheorie nach einem kosmologischen Modell gesucht hat, wo er das All als ein umfassendes Feld beschreiben wollte. Das ist ihm nicht gelungen. Aber der Ansatz bezeichnet eine Wende in der astronomischen Forschung und hiervon ausgehend auch für die anderen Zweige der Physik und Naturforschung. Vorher gab es nur wenige Grundannahmen über den Raum und die zeitliche Entwicklung im Ganzen (die Kant in seiner "Kritik der reinen Vernunft" systematisch darstellen wollte). Daran hatte sich jede Naturforschung zu orientieren, aber im übrigen konnten alle Zweige der Naturforschung unabhängig voneinander arbeiten.

Jetzt werden dagegen alle Naturforschungen aufeinander bezogen und in kosmologischen Modellen miteinander verknüpft. Im Endergebnis würden aus dem Modell deduktiv alle anderen Erkenntnisse abgeleitet. In der Natur wird nach Leitprinzipien gesucht, die in allen Bereichen bis hin zum gesellschaftlichen Leben gültig sein sollen. (Auch die Arbeit von Jantsch ist in diesem Zusammenhang zu sehen, wobei die Selbstorganisation das oberste Prinzip wird.)

Es gibt aber genügend Gründe, die gegen die Verwirklichung eines solch umfassenden Programms sprechen. Neben der Existenz von Singularitäten kommen die Resonanzen hinzu.

Bei der Bewegung der Materie in Feldern handelt es sich überwiegend um periodische Prozesse (wie die Planetenbewegung, die Rotation von Galaxien, Pulsare etc.). Da drohen aber ständig Resonanzkatastrophen, wo kleine Wirkungen die Prozesse ins Torkeln und bis zum Absturz bringen können, wenn die wechselwirkende Materie in einer bestimmten räumlichen Konstellation angeordnet ist. Die Mathematik der Strömungen steht erst am Anfang und über Systembrüche dieser Art ist noch wenig bekannt (siehe die Anhänge bei Arnold "Mathematical Methods of Classical Mechanics").

Mit Singularitäten und Resonanzen sind astronomisch nachweisbar Konstellationen gesetzt. Es handelt sich nicht mehr um die klassischen mythologischen Sternbilder, aber das All wird in Systementwürfen beschrieben, die keine Stabilität garantieren können. Wenn die Materie in bestimmter Konstellation auftritt, drohen Systembrüche, die zu Singularitäten führen können. Die Singularitäten bleiben aber nicht als ewige Objekte für sich stehen, sondern nehmen ihrerseits Einfluss auf das Geschehen und können dadurch im Laufe der Zeit abgebaut werden (möglicherweise explodieren), oder aber auch ihre Gewalt vergrößern.

Das Beobachtungsmaterial entspricht dieser grundsätzlichen Annahme. Daher ist eine Rückkehr zu der griechischen Deduktion unwahrscheinlich, die von statischen Konstellationen ausging. Die Allgemeine Relativitätstheorie setzt zwar einen endlichen Erkenntnisbereich voraus, aber es ist kein geschlossenes System. Vielmehr deuten die Konstellationen darauf hin, dass die endlichen kosmologischen Modelle in Wahrheit in einen unendlichen Raum eingebettet sind, dessen Wirkung in den Konstellationen zu spüren, präzise zu beschreiben, aber nie umfassend zu erklären ist. Das Relativitätsprinzip ist ein Negativitätsprinzip in Bezug auf ontologische oder theologische Grenzfragen.

Alle kosmologischen Modelle bauen auf diesen Grundlagen auf und liefern dann Varianten, die mit dem Beobachtungsmaterial in Übereinklang gebracht werden müssen. Sie bleiben jedoch grundsätzlich innerhalb der Allgemeinen Relativitätstheorie und ihrer Paradoxien. Wenn sie verselbständig werden sollen und in den Rang von Weltanschauungen erhoben werden, bleibt dagegen der Grundsatz der Negativen Dialektik gültig: Das Ganze ist das Unwahre.

Einige kontroverse Fragen der kosmologischen Modelle:

Welche Varianten bevorzugt werden, ist eine Frage der Übereinstimmung mit dem Beobachtungsmaterial und der Phantasie. Die äußert sich schon in der Wortwahl. (Mythologische Figuren bei den Griechen; nüchterne Bezeichnungen der im 16. Jahrhundert von Seefahrern aufgezeichneten Sternbilder des südlichen Himmels wie Fliege, Dreieck, Paradiesvogel; comic-Sprache heutzutage). Sie zeigt sich aber auch in Bildern.

Heute werden Strömungsbilder bevorzugt: Ringe und Schalen der Zeit, Nebel und Turbulenz, Löcher und Sogwirkungen, Haufenbildungen, das Weltall als aufgehender Rosinenkuchen (während der Raum expandiert, bleiben die Galaxien und ihre Bestandteile in der alten Größe erhalten), der Raum als dehn- und spreizbares Gummi (im starren Extrem als Glas), Schaumbildungen (im Großen bilden Galaxien Schaumblasen, im Kleinen wird der Raum schäumig), kräuselnde Wirkung von Gravitationswellen.

So bewegen sich die kosmologischen Modelle nicht nur in den Paradoxien der Allgemeinen Relativitätstheorie, sondern sie führen zurück zu Ästhetik und Magie. Ihre Worte und Bilder sind zeitgebunden. Sog und Schaum z.B. haben nicht nur ihren Stellenwert in der naturwissenschaftlichen Beschreibung bestimmter Strömungen, sondern auch in der gegenwärtigen Poesie und Philosophie (siehe den "Versuch über die Schwierigkeit Nein zu sagen" von K. Heinrich und die dort angeführten Beispiele). Kosmologische Modelle stehen nicht nur an der Grenze der Naturerkenntnis, sondern auch der Phantasie. Die besondere Bedeutung von Konstellationen wird erhalten bleiben, auch wenn sie sich im Einzeln geschichtlich verändern.

Literaturhinweise

1987 - 1989


© tydecks.info 2002