Walter Tydecks

 

Analogie-Denken nach Walter Rella

Einleitung

Der in Österreich lebende Arzt Walter Rella (* 1944) hat seit den 1980ern einen neuen Entwurf des Analogie-Denkens vorgelegt. Er versteht unter Analogie-Denken weder das aus dem Mythos und dem mittelalterlichen Denken bekannte äußerliche Herstellen von oberflächlichen Vergleichen (Analogiezauber), das dem an der modernen Wissenschaft geschulten Denken willkürlich und oft weit hergeholt erscheint, noch beschränkt er sich auf das Analogie-Denken als eine der traditionellen Figuren der logischen Schlüsse, mit der aus drei gegebenen Tatsachen a, b und c auf eine vierte Tatsache d geschlossen wird, sondern für ihn bietet das Analogie-Denken eine Alternative und notwendige Ergänzung zu dem von ihm so genannten tautologischen Denken der Antike und dem homologischen Denken der Neuzeit. Alle drei Denkweisen sind gleichwertig, und es kommt erst dann zu systematischen Verirrungen, wenn eine von ihnen verabsolutiert wird.

Im Folgenden soll dieser Entwurf in seiner Entwicklung von einer ersten Veröffentlichung 1984-85 im Wiener Jahrbuch für Philosophie bis zu aktuellen, unveröffentlichten Ausarbeitungen dargestellt werden. Rella nutzt die von Hegel eingeführten schematischen Darstellungen der Schlüsse. Das vereinfacht zwar eine erste Übersicht, kann aber zu Missverständnissen führen, da sich Hegel im Unterschied zu Rella an die traditionellen Figuren der Schlüsse hält.

Rella möchte mit dem Analogie-Denken einen Weg öffnen, wie die Grundsatzfragen der modernen Naturwissenschaft gelöst werden können und entwirft insbesondere eine Analogie zwischen der Thermodynamik und der Relativitätstheorie. Das sind für ihn die beiden wichtigsten Strömungen der aktuellen Naturwissenschaft, die bisher noch unverbunden nebeneinander stehen. Zugleich ist für ihn das Analogie-Denken eine Möglichkeit, die mit der Neuzeit entstandene Kluft zwischen Religion und Naturwissenschaft zu schließen. Mit dieser Frage trifft er das grundlegende Anliegen, um das es auch Hegel im Entwurf seines Enzyklopädie der philosophischen Wissenschaften ging, und es soll im Einzelnen gezeigt werden, worin der Unterschied des Analogie-Denkens bei Hegel und Rella besteht und ob die von Hegel eingeführte dialektische Methode als Analogie-Denken verstanden werden kann.

Tautologie oder das Denken im grand design

Tautologie (»Wiederholung von bereits Gesagtem« nach Wiktionary) hat einen schlechten Ruf. Mit ihr wird nichts-sagend eine Aussage so oft und so lange wiederholt, bis jeder an sie glaubt, weil alle anderen es genau so tun, und sie als scheinbar alternativlos hingenommen wird und zum Dogma erstarrt. Nicht besser verhält es sich mit den deduktiven Schlüssen nach dem Muster ›alle Menschen sind sterblich, Sokrates ist ein Mensch, also ist Sokrates sterblich‹, die nahezu zum Inbegriff langweiligen Denkens geworden sind. Und doch ist keine Frage, dass die Antike ein Denken der Tautologie war. So gingen zum Beispiel die Pythagoreer davon aus, dass ihr Denken unmittelbar mit der Natur identisch ist. Die Zahlen gibt es zwar zunächst nur im Denken, aber für sie ist die Natur ebenfalls Zahl. Das Denken erkennt die Natur in Zahlen, weil die Natur selbst aus Zahlen besteht. Die Tautologie ist für sie daher kein Mangel, sondern das höchste Ziel des Denkens: Sie ringen darum, dass Denken in eine Gestalt zu bringen, in der es in letzter Konsequenz tautologisch ist, wenn es wortgetreu wiederholt, was in der Natur gegeben ist. Daher konnten sie sich auf die qualitativen Eigenschaften der Zahlen konzentrieren. Etwa die Monas oder die Tetras hat an sich eine Qualität, die im Denken und in der Natur unmittelbar übereinstimmt. Auch für Hegel bleibt in diesem Sinn die Tautologie das letzte Prinzip der Naturwissenschaft, wenn diese nur dann Erfolg haben kann, indem der Geist sich in der Natur selbst erkennt, oder in seinen Worten, »der Geist hebt die Natur, oder sein Andersseyn auf, indem er erkennt, daß diß sein Andersseyn er selbst ist, daß sie nichts anderes ist, als er selbst, gesetzt als ein entgegengesetztes« (Hegel in einem Fragment von 1803, zitiert nach Schmied-Kowarzik, 41).

Bei näherem Hinsehen ist die Tautologie bis heute das Ideal aller Wissenschaft geblieben, seien es universale, formale Kalküle, mit denen sich Weltformeln darstellen und beweisen lassen, oder sei es Heideggers bewusste Rückkehr in ein tautologisches Denken, wenn er Formeln gebraucht wie »die Sprache spricht« oder «das Nichts nichtet«. Heidegger wollte wieder zurückkehren zum antiken Denken. Ihm war bewusst, dass das nur möglich ist, wenn das moderne Vorurteil gegen die Tautologie überwunden wird. Darauf hat Scheier in einer bemerkenswerten Untersuchung aufmerksam gemacht.

»Der Schritt des Denkens in die Tautologie ist daher jeweils der Schritt zurück aus 'anderem' zu einem Nicht-anderen oder Selben, to ayto, wie es einmal von Parmenides angedacht wurde, um sich hinfort um jenes 'anderen' willen zu entziehen. Darum verbirgt sich im 'anderen' das Geschick des Seins, das die Metaphysik ist. Sie denkt das Sein als Grund. Dahingegen: 'Sprache ist Sprache. Der Satz bringt uns nicht zu anderem, worin die Sprache gründet. Er sagt auch nichts darüber, ob die Sprache selbst ein Grund für anderes sei. Der Satz: Die Sprache ist Sprache, läßt uns über einen Abgrund schweben.' (Unterwegs zur Sprache, 13).« (Scheier 1993, 5f)

Rella versteht das Tautologie-Denken als Schluss der Allheit in der Antike und dem Mittelalter. Es beruft sich auf heilige Texte und Offenbarung, bisweilen auf den exklusiven Zugang zu hermetischen Texten (Gnosis) und erklärt den Besitz der Wahrheit als letztes Motiv für Herrschaft, sei es der Philosophen-Könige bei Platon oder der Priester. Was in der Bibel (oder einem anderen heiligen Text) steht, ist überall und unter allen Bedingungen wahr.

Als Figur des Tautologie-Denkens wählte Rella in seinen früheren Texten A – E – B und später A – B – E. Damit ist gemeint, dass von etwas Allgemeinem (A) ausgegangen wird, aus dem deduktiv in dem jeweils gegebenen besonderen Kontext (B) auf die einzelnen Erkenntnisse (E) geschlossen wird. Aus noch zu erläuternden Gründen geht dagegen Hegel in seiner Lehre des Schlusses von der Figur E – B – A aus. Er meint damit aber inhaltlich das Gleiche, wenn diese Art zu schließen ein Allgemeines A  voraussetzt, in das sie alles gegebene Einzelne E dank am Einzelnen vorliegender besonderer Merkmale B einordnen kann.

Das Allgemeine kann auch der Möglichkeitsraum (oder in der Sprache der Physik der Hilbert-Raum) sein. Es wird ein Allgemeines konstruiert, in dem alles, was erfahrbar ist, bereits enthalten ist. Schließlich kann das Allgemeine – einen buddhistischen Gedanken aufgreifend – die »All-Einheit« des Bewusstseins sein. Das Bewusstsein geht den »Weg nach Innen«, das ist der Weg einer »Meditation« und das »Loslassen« aller äußeren Einflüsse, bis sich das Bewusstsein der eigenen Fülle seiner Möglichkeiten gegenwärtig wird und sich tautologisch in ihr zu bewegen vermag.

»Weil in ihr nichts festgelegt und alles möglich ist, erfasst sie Zeit in einem Aspekt, der der Naturwissenschaft verborgen bleibt, nämlich als bloß vorgestellte Möglichkeit. Zeit entpuppt sich so in der Tat als imaginäre 'Überzeit' in welcher alles, bevor es noch da ist, schon gegenwärtig ist. Fazit ist: Will sich der Geist über die Zeit erheben, so landet er im Reich imaginierter Möglichkeiten, dem Nirwana. In ihrer 'realsten' Form kommen diese zeitlosen imaginierten Möglichkeiten in der Mathematik zum Vorschein.« (Rella, ZuE, 4)

Mit dem Imaginären oder dem Möglichkeitsraum der Tautologie ist noch nicht der Raum gemeint, der im Analogie-Schluss erschlossen wird. Der Tautologie-Schluss wird ein Allgemeines konstruieren, aus dem alles deduktiv abgeleitet werden kann. Das sind physikalisch die Weltformel oder die Grand Unification Theory (Theory of Everything). Während der Tautologie-Schluss ein bereits bekanntes Allgemeines als Grundlage nutzt, geht der Analogie-Schluss schrittweise in ein zuvor noch unbekanntes Allgemeines hinaus.

Homologie: Der Schluss entlang / mittels einer Reihe auf Neues

Während sich das Denken der Antike und der klassischen Religion in einer umfassenden Allgemeinheit aufgehoben wusste, zweifelt die Neuzeit an der Gegebenheit einer absoluten Wahrheit. Der Zweifel ist verbunden mit einer politischen und religiösen Kritik an den überlieferten Autoritäten und will das Monopol derer brechen, die sich als Eigentümer oder zumindest Statthalter und Wahrer einer universalen Ordnung sehen. So wie in Europa an die Stelle hierarchisch strukturierter Reiche unabhängige Städte treten, die zumindest von ihrem Anspruch her an ihrer Freiheit und Autonomie festhalten, wird demokratisch das autonome Denken Einzelner aufgewertet gegenüber den Dogmen übergreifender Institutionen. Jeder, der über seine Sinne und seinen Verstand verfügt und sich mit innerer Freude und offenen Augen in der Natur bewegt, kann aus dem, was er erlebt, Erkenntnisse gewinnen und Schlüsse ziehen. Er bedarf keiner priesterlichen oder philosophischen Weihen oder Einweihungen. Das Licht kommt nicht mehr von oben, sondern scheint aus den Sachen selbst. Platons Höhlengleichnis wird umgekehrt: Die gewöhnliche Wissenschaft hat es keineswegs nur mit Schatten zu tun, sondern ihre Objekte leuchten aus sich selbst, während niemand mehr an einen mysteriösen Ausgang aus der Höhle glaubt, der nur Privilegierten und Auserwählten offen steht. Rella spricht von einer »Lichtwende«: »Aber die Quelle des Lichtes war nicht mehr die Theologie, sondern das Objekt oder die Erscheinung, deren eigener Schein Licht und Wahrheit vermittelte.« (Rella 1984, 131) Statt an eine traditionell überlieferte Lehre und deren heilige Texte zu glauben und aus ihren Dogmen und Axiomen deduktiv zu dozieren, wird aus den prinzipiell unvollständigen Kenntnissen und Erscheinungen, die jedem Menschen offen stehen, induktiv auf etwas Neues geschlossen, welches sich nicht als Allgemeines hinter oder über diesen Erscheinungen verbirgt, sondern auf das entlang einer in den bereits bekannten Er-Scheinungen nachweisbaren inneren Reihe geschlossen werden kann. Das Neue liegt auf der gleichen Reihe  neben  den bekannten Erscheinungen. Ein typisches Beispiel war die Entdeckung des Planeten Neptun im Jahre 1846. Nach der überlieferten Astronomie und den sie begleitenden philosophischen Dogmen hätte es einen solchen Planeten nicht geben dürfen. Aus der Kenntnis der Bewegung der bekannten Planeten konnte jedoch geschlossen werden, dass es einen weiteren Planeten geben muss, dessen Schwerkraft die minimalen Abweichungen der Bewegungen der bekannten Planeten erklärt. Der Ort des Planeten konnte vorausgesagt werden, und er ließ sich am Himmel beobachten. Die moderne Naturwissenschaft hofft, in ähnlicher Weise immer weitere Fortschritte zu erzielen.

Für Rella ist das die Methode der Naturwissenschaft.

»Vom Standpunkt der Naturwissenschaft repräsentieren E die einzelnen experimentellen Daten (die Variablen), B den besonderen Aspekt (Parameter) unter welchem die Daten geordnet werden (z.B. die Koordinaten) und A das allgemein gültige Gesetz. [...] Betrachten wir, zum Beispiel, das Gesetz der Planetenbewegung: Dieses Gesetz nimmt seinen Ausgang von den einzelnen Beobachtungsdaten, nämlich den konkreten Positionen des Planeten am Firmament (E). Diese Daten werden nun innerhalb der Koordinaten von Raum und Zeit verzeichnet und man erhält damit die besondere Bahn (B) des Planeten. Die Aufgabe der Mathematik schließlich ist es, für die Bahn eine Gleichung zu finden, die allgemein, das heißt nicht nur für den betrachteten Planeten, sondern für alle Planeten gilt (Kepler'sche Gesetze [A]). Dieser logischen Figur liegt das Prinzip der Homologie zugrunde, weil die Ursache-Wirkungs-Verhältnisse, welche unter dem Anspruch desselben Gesetzes stehen, die Fälle nämlich, homolog – d.h. gleichartig – sind.« (Rella, ZuE, 3)

Was gibt der Wissenschaft die Sicherheit, auf diese Art erfolgreich schließen zu können? Die Wissenschaft lehnt alle psychologisierenden Erklärungen ab und zweifelt an ihnen nicht weniger als an den überlieferten traditionellen Lehren. Stattdessen sucht sie seit Descartes nach einer Methode (einem Werkzeug, einem organon), mithilfe derer sie unbegrenzt fortschreiten kann. Scheier spricht von der Selbstentfaltung der methodischen Reflexion als Prinzip der Neueren Philosophie. Wie auch immer die Methode im Einzelnen aussieht, ihr inneres Geheimnis ist das Homologie-Denken. Es muss einen roten Faden geben, auf dem sich alles bisher Bekannte einordnen lässt und entlang dessen auf bisher unbekannte Tatsachen geschlossen werden kann. Die Reihe verbindet die Elemente des bekannten Wissens miteinander und weist über sie hinaus auf neue Erkenntnisse, die induktiv entlang der Reihe vorausgesagt werden können.

Im Ganzen ist das System offen und sich seines hypothetischen Charakters bewusst. Rella bezeichnet es als »eine Wende von der Unwahrheit der Vollkommenheit zur Wahrheit der Unvollkommenheit, d.h. ein Schritt in die Negation an sich selbst« (Rella 1984, 131). Jede Induktion kann nur hypothetisch erfolgen und muss bestätigt werden. Nur wer das Risiko zu scheitern auf sich nimmt, wird Erfolg haben. Alle Erkenntnis bleibt vorläufig mit dem Vorbehalt, durch spätere Entdeckungen und aus ihnen abgeleiteten Regeln revidiert werden zu können. Statt von Wahrheit wird von Wahrscheinlichkeit gesprochen. Ein Rest, dass es auch anders sein kann, bleibt immer. Zur inneren Krise des Homologie-Denkens kam es erst, als Gödel nachwies, dass sich die vom Homologie-Denken genutzten Methoden nach ihren eigenen Regeln in den von ihr untersuchten Elementen darstellen lassen und dadurch selbstbezüglich und in letzter Konsequenz paradox oder tautologisch zu werden drohen. Das Homologie-Denken ließ sich aber davon bis heute weder beirren noch beeindrucken, sondern sieht sich schlicht empirisch mit den fortwährenden Erfolgen der Naturwissenschaft bestätigt. Als größter Triumph gelten die empirischen Bestätigungen der Allgemeinen Relativitätstheorie und der Quantenelektrodynamik. Zwar ist es im Weiteren bis heute mittlerweile zwei oder drei Generationen von Naturwissenschaftlern nicht gelungen, die gravierenden Abweichungen des Standardmodells der Teilchenphysik oder der Stringtheorie von den empirischen Fakten zu bereinigen. Um so schlimmer für die Tatsachen!

An der Mathematik kann der Bruch mit dem Tautologie-Denken fast handgreiflich gezeigt werden: Während es für das frühe Denken absolut größte Zahlen gab, die den Kosmos in seiner Gesamtheit und Allgemeinheit zeigen und sich nur in Symbolen darstellen lassen und mit einem höchsten Wesen identifiziert wurden, tritt an ihre Stelle ein unbegrenzt algorithmisches Denken. Dieser Umschwung ist bereits in der frühen Geschichte zur sumerischen Mathematik vorgeprägt. Die Ägypter verehrten als Zahl des Unendlichen das Symbol eines die Unendlichkeit anbetenden Priesters unendlich ägyptisch, welches heute nüchtern als die Zahl 1.000.000 (eine Million) interpretiert wird. Im hebräischen Alphabet bedeutet jeder Buchstabe zugleich eine Zahl. Das Alphabet schließt mit dem Zeichen Taw hebräisch taw, welches zugleich die Zahl 400 bedeutet. Mit der Zahl 400 werden sowohl symbolisch die 400 Jahre der ägyptischen Gefangenschaft verbunden, die für das Leben im Diesseits stehen, die materielle, irdische Welt, aus der nach einer Erlösung gesucht wird, wie auch dieses Zeichen bisweilen selbstbezüglich als Zeichen des Zeichens verstanden wird oder als liegendes Kreuz (das ist noch deutlich zu sehen in dem uns bekannten Buchstaben T, der aus dem taw hervorgegangen ist). Es liegt daher nahe, es mit dem Kreuz als Symbol des Christentums in Verbindung zu bringen. Schließlich ist an das Omega zu erinnern, den letzten Buchstaben des griechischen Alphabets. Nicht nur steht A und O für die Gesamtheit zwischen Anfang und Ende, sondern das Zeichen omega zeigt den Himmelsbogen, der die diesseitige und die jenseitige Welt trennt. Dagegen entwarfen erstmals die Sumerer einen Algorithmus, mit dem wie in einer unendlich verlängerbaren Strichliste unbegrenzt neue Zahlen erzeugt werden können. Das Denken wird enzyklopädisch und ordnet alles in eine unendliche Liste an. Es ist das innere Prinzip dieser Liste, die den »jenseits liegenden Halt« gibt, nach dem Descartes suchte (Rella 1989, 293).

Auf den ersten Blick kann die Enzyklopädie oder unendliche Liste einfach als eine auf viel empirisches Material gestützte Variante des vom Tautologie-Denken gemeinten Allgemeinen angesehen werden. Doch das verkennt ihren besonderen Charakter. Sie ist zwar ebenfalls umfassend, aber entscheidend ist das Induktions-Axiom, mithilfe dessen entlang der Reihe beliebig weit operiert werden kann. Das Induktions-Axiom ist das Prinzip des Homologie-Denkens. Mit dem Induktions-Axiom wird gesetzt, dass sich entlang der Reihe niemals die Ähnlichkeiten der Einträge (ihre Homologie im engeren Sinn) ändern wird. Konkret bedeutet das am Beispiel der natürlichen Zahlen: Es gibt keine größte Zahl n, jenseits derer es nicht mehr weiter geht, oder hinter der die Zahlen ihren Charakter ändern. Es war die große Leistung von Cantor, für diese Situation geeignete mathematische Symbole und Rechenmethoden zu finden. Gut begründet wählte er als Symbol für die ferne, erste über-abzählbare Zahl wiederum den griechischen Buchstaben Omega, nun jedoch fast ironisch klein geschrieben als ω, und für dasjenige, was über die Reihe hinausgeht, das hebräische Zeichen Aleph hebräisch aleph. Damit kehrte er bewusst zur Symbolik des vor-homologischen Denkens zurück und ließ sich hierfür ausdrücklich den Segen der katholischen Kirche geben, vertreten durch Kardinal Johannes Baptist Franzelin (1816-1886), mit dem er im Jahr 1886 im Briefwechsel stand.

Alles ist angeordnet auf einer Reihe untereinander homologer Einzelner. Die Reihe stellt sicher, dass dank ihrer inneren Ordnung erfolgreich geschlossen werden kann. Dieser Gedanke ist bereits implizit enthalten in der formalen Analyse von Descartes und tritt offen hervor in der Zeitreihe von Kant und der Schluss-Kette von Frege. Descartes suchte nach Eigenschaften der Worte, die unabhängig von ihrem jeweiligen Inhalt (dem Denk-Inhalt, an den gedacht wird) ihre Wahrheit oder Unwahrheit zeigen und fand sie in Eigenschaften wie Klarheit, Transparenz oder Flüssigkeit. Solche Eigenschaften lassen sich nicht an einzelnen Worten nachweisen, sondern sind genauer betrachtet Eigenschaften des Gedanken- oder Beweisgangs, mit dem in Worten gedacht wird. Es sind Eigenschaften der Beziehungen der Worte zu- und miteinander. Kein einzelnes Wort kann für sich klar, transparent oder flüssig sein, sondern erst der Zusammenhang, in den es dank einer klaren, transparenten oder flüssigen Denkweise mit anderen Worten steht. So ist bereits bei Descartes angelegt, was Kant und Frege explizit gemacht haben: Die Zeitreihe und ihre Eigenschaften liegen den Urteilen und mit ihnen den Gedanken zugrunde. Frege wollte den Ansatz von Kant weiter vereinfachen und endgültig lösen von jeder sinnlichen Anschauung in Raum und Zeit sowie von den »Täuschungen [...], die durch den Sprachgebrauch über die Beziehungen der Begriffe unvermeidlich entstehen« (Frege, vi f). Er sprach von Schlussketten statt der Zeitreihe. Er hatte den genialen Gedanken, alle Urteile in zwei Klassen einzuteilen: Sie sind entweder wahr oder unwahr. Das klingt trivial oder zirkulär, aber es spricht das Geheimnis des Homologie-Denkens aus: Alle Urteile liegen entweder auf der Reihe, entlang derer induktiv geschlossen werden kann, oder sie liegen irgendwo daneben und fallen aus der Wahrheit heraus.

Damit stellt sich die Frage, ob an den Urteilen (oder wie auch immer die kleinsten Einheiten des Denkens bezeichnet werden) eine Eigenschaft zu erkennen ist, dank derer sie zur Reihe gehören oder nicht. Die Antwort ergibt sich für mich mit Hegel. Für Hegel führt das endliche Zählen entlang der Zahlenachse für sich nur zur schlechten Unendlichkeit. An ihm ist jedoch die wahre Unendlichkeit zu sehen, wenn  am Zählen, das zunächst in der diskreten Schrittweise 1, 2, 3, … verbleibt, die Linie erkannt wird, entlang derer das Zählen erfolgt. Die Linie enthält alle Punkte, die auf ihr gezählt werden, geht aber  als Linie  über die Summe aller dimensionslosen Punkte hinaus. Hegel kann dem bereits von Aristoteles gegenüber Zenon und dem Paradox von Achilles und der Schildkröte vorgetragenen Argument folgen: Es ist unmöglich, alle Punkte auf einer Linie zu zählen, aber an den Punkten lässt sich die Linie erkennen, auf der sie liegen. Die Linie enthält mit ihrer Kontinuität etwas, das über die einzelnen gezählten Punkte hinausgeht. Sie enthält nicht nur die einzelnen Punkte, sondern auch alle die Punkte verbindenden Zwischenräume zwischen den Punkten. Die Kontinuität ist die wahre Unendlichkeit, die sich an der schlechten Unendlichkeit des induktiven Schließens zeigt.

Wird also in der Tradition von Descartes bis Frege nach der Eigenschaft der kleinsten Elemente des Denkens gefragt, an der unabhängig vom jeweiligen Denkinhalt ihre Wahrheit zu erkennen ist, dann ist das formal gesagt ihre Fließbarkeit (Fluidität). Die Reihe ist im Ganzen kontinuierlich, die einzelnen Elementen sind für sich nicht nur diskret und isoliert, sondern müssen sich auf der Linie deren Fluss einpassen können, d.h. fließbar sein. Sie enthalten an sich die Eigenschaft, sich in einem Fluss auf andere Elemente beziehen zu können. Solche Elemente unterscheiden sich von isolierten Atomen, die bereits von Aristoteles abgelehnt wurden. Um zu verstehen, was sie von bloßen Atomen unterscheidet, führte Leibniz die Monaden und Hegel den lebendigen Begriff ein. Während Leibniz mit den Monaden bereits in ein Analogie-Denken tritt, vollendet Hegel mit seiner Lehre des lebendigen Begriffs das Homologie-Denken. In seinen eigenen Worten sieht er sich im Vorbericht zur Lehre vom Begriff in einer Lage, in der »sich für die Logik des Begriffs ein völlig fertiges und festgewordenes, man kann sagen verknöchertes Material vorfindet und die Aufgabe darin besteht, dasselbe in Flüssigkeit zu bringen und den lebendigen Begriff in solchem toten Stoffe wieder zu entzünden« (HW 6.243). Im Ergebnis ist es für ihn »der absolute, göttliche Begriff« (HW 6.405), der vom Tautologie-Denken in das Homologie-Denken projiziert ist und dort nicht mehr als das Allgemeine über allem schwebt, sondern als die lebendige Elementarzelle alles enthält, aus der sich das Allgemeine, Besondere und Einzelne als dessen Momente und im Ergebnis die Methode entwickeln lassen: »Was hiermit als Methode hier zu betrachten ist, ist nur die Bewegung des Begriffs selbst, deren Natur schon erkannt worden.« (HW 6.551). Hegel vollendet – ohne sich dessen bewusst zu sein – die Apotheose des Homologie-Denkens. Das wird im Weiteren näher ausgeführt, wenn es um die Stellung der Analogie innerhalb seiner Begriffslogik geht (siehe unten).

In seiner Fließbarkeit oder im weiteren Sinn Lebendigkeit trägt der Begriff die Methode an sich, mit der er sich mit anderen Begriffen zusammenschließen kann. Eigenschaften dieser Art lassen sich nicht an isolierten Punkten nachweisen, sondern nur in ihrer Beziehung zueinander. Daher führt für Scheier die Selbstentfaltung der Methode im Ergebnis zur »Beziehung von Beziehung und Bezogenen« (Scheier 1973, 107).

Hatte Frege alle Urteile in die beiden Klassen der wahren und unwahren Urteile eingeteilt, dann stimmt das für mich sachlich überein mit Hegels Einteilung der Worte in lebendige Begriffe und totes Material. Daher scheinen mir diejenigen recht zu haben, die bei Hegel die Lebendigkeit oder den lebendigen Begriff im Rang einer Transzendentalie sehen (so Psarros und Plevrakis in ihren Beiträgen für das Treffen des Arbeitskreises Hegel und die Naturphilosophie in Leipzig 2017).

Während Hegel überzeugt ist, dass mit der Göttlichkeit des Begriffs das Homologie-Denken der Neuzeit religiös fundiert werden kann, betont der Religionsphilosoph Klaus Heinrich die Differenz. Er kehrt zum Ausgangspunkt des induktiven Denkens bei Francis Bacon zurück und wiederholt die Frage: »Wo kommt das Vertrauen her, das von der einzelnen Beobachtung her den Schluß auf etwas Allgemeines zieht?« (Heinrich, 117) Wenn alle Elemente homolog sind, verkörpert jedes einzelne Element zugleich die Gesamtheit aller anderen. Jedes Element kann für alle anderen Elemente stehen. Eine Gesetzmäßigkeit, die an wenigen einzelnen Elementen gezeigt ist, gilt für alle anderen, weil sie zugleich stellvertretend für alle anderen Elemente stehen können.

»Die Induktion ist gerade nicht das Verfahren, das den Schluß vom Einzelnen auf ein zuletzt substantiell schon feststehendes Ganzes erlaubt – dann wäre sie nur die umgekehrte Deduktion –, sondern die Induktion ist das Verfahren, das, unter dem Gesichtspunkt: das Einzelne verkörpert das Ganze, immer wieder in Frage stellt – den Begriff, den Zusammenhang, die Substanz des Ganzen.« (Heinrich, 120)

Mit dieser Deutung wird es ihm möglich, das Homologie-Denken nicht nur als Denkweise der neuzeitlichen Naturwissenschaft, sondern als Prinzip der Neuzeit im Ganzen zu verstehen. Es ist für ihn nicht nur eine induktive Methode oder ein Induktions-Axiom, sondern mit Robert Musil eine »induktive Gesinnung« (Heinrich, 87), die Musil als Utopie verstand, mit der er den Roman Der Mann ohne Eigenschaften abschließen wollte. Gab es im religiösen und mythischen Denken Verkörperungen (Inkarnationen) von heiligen Stätten über Offenbarungs-Ereignisse wie dem brennenden Dornbusch bis zu Jesus als Menschwerdung Gottes, so ist im Homologie-Denken jedes einzelne Element Verkörperung aller anderen. Davon lebt die neuzeitliche Kultur. Die induktive Gesinnung zeigt sich z.B. in den modernen Romanen, wenn dort einzelne Figuren als Verkörperungen für alle Menschen stehen. Die neuzeitliche Sonate und Sinfonie zeigt die Gefühlswelt eines leidenschaftlich bewegten Menschen, in der alle Menschen verkörpert sind. Und in größter Abstraktheit zeigt – frei nach Wittgenstein – jeder Satz alle anderen Sätze, wenn er nur die von Hegel geforderte Fließbarkeit und Lebendigkeit an sich trägt und darüber im Wortgebrauch von Frege einen Sinn hat, deren Bedeutung ihre Wahrheit ist (solche Begriffe und die aus ihnen gebildeten Urteile und Sätze bedeuten Wahrheit). Das Subjekt wird nicht mehr von außer ihm liegenden Verkörperungen des Göttlichen ergriffen, sondern es findet in seiner Lebendigkeit und Subjektivität die Göttlichkeit. Der Subjekt-Begriff wurde völlig umgewandelt. Mit ironischem Unterton schreibt Heinrich:

»Ausgerechnet der Begriff, den die Antike geprägt hatte bei Platon für die unabhängige, unveränderliche, ewige Seinssphäre, auf die man sich wechselnd richten kann, ohne an ihr irgendetwas ausrichten zu können, mit der man sich vereinigen kann nur, indem man diese Welt des Wechsels unter sich läßt, nämlich der Begriff idea wird nun umfunktioniert zu dem Begriff des schöpferischen Einfalls.« [...]
    »Denn dieses subiectum, dieses hypokeimenon hat ja einmal behauptet das, was objektiv und auch schicksalhaft objektiv-zweideutig allem zugrunde liegt; und jetzt bedeutet es die personale Struktur, die, jenem objektiv Zugrundeliegenden ständig entgegengestellt, versucht, die Objektivität selber zu formen; und zuletzt bedeutet es die Eingriffsmöglichkeit, die Rezeptivität mit Spontaneität verbindet, bis hin zu der Form, in der Subjektivität schließlich mit Belanglosigkeit oder Bedeutungslosigkeit dann gleichgesetzt wird.« (Heinrich, 154)

Einerseits wird dem Subjekt alle Macht und Aktivität zugeschrieben, andererseits verliert es seine Einmaligkeit und wird zur bloßen Verkörperung aller Subjekte. Heinrich betont, dass mit dem induktiven Denken nicht innerhalb der überlieferten Religionen ein Bruch erfolgt oder auf ihrem Boden eine neue Religion gegründet wird, sondern ein Bruch mit allen traditionellen Religionen. Es gibt keine Verkörperungen in der objektiven Welt mehr, die das Absolute darstellen (keine heiligen Haine, heiligen Stätten, göttlichen Symbole, Zahlen oder Maße), deren Macht das einzelne menschliche Subjekt unterworfen ist, sondern in der Homologie aller Subjekte ist jedes Subjekt die Verkörperung aller. Und auf der anderen Seite gibt es in der Welt der Objekte keine Verkörperungen göttlicher Größe mehr, sie verliert ihren Zauber und sinkt ihrerseits herab zur homologen Menge aller Objekte, die nichts mehr sind als die Gegenstände, mit denen die Subjekte zu tun haben und mit denen sie kalkulieren können.

Analogie im Kontext neuzeitlichen Denkens

Analogie bedeutet laut Wiktionary »'entsprechend, verhältnismäßig, sinngemäß', das sich wiederum aus dem Präfix (aná) 'hinauf, auf, gemäß' und (lógos) 'Wort, Sinn, Vernunft' zusammensetzt«. Der Eintrag zu aná nennt als dessen »Kernbedeutung: 'an … hinauf'« und als Herkunft: »'oben' [...] aus der indogermanischen Wurzel *u?h1en- (vgl. lat. an-, got. ana 'hinauf', nhd. an)«. Heute wird bei einer Analogie jedoch nicht an einen Aufstieg nach oben gedacht, sondern eine Analogie bleibt im Sinne von ‘entsprechend, verhältnismäßig’ im Horizont des Homologie-Denkens: Vier Elemente a, b, c und d bilden eine Analogie, wenn sich a zu b verhält wie c zu d und die Gleichung a : b = c : d erfüllt ist. In der Regel wird ausgehend von 3 Elementen a, b und c auf das fehlende Element d einer Analogie geschlossen. Mathematisch kann mit dem Nachweis einer Analogie gezeigt werden, dass die 4 Elemente einer Analogie auf einer Reihe liegen müssen, entlang derer der Schluss der Analogie erfolgt. In diesem Verständnis werden Analogien verkürzt auf Proportionen verschiedener Teile  innerhalb eines  gegebenen  Ganzen, die in Bezug auf eine bestimmte Dimension miteinander verglichen werden. Rella geht dagegen auf die ursprüngliche Herkunft des Wortes aná zurück und sieht in der Analogie einen Schluss, der von einem gegebenen Ganzen Abstand zu gewinnen vermag, über dies Ganze hinausgeht und im Vergleich mit einem anderen Ganzen auf beide Gesamtheiten neues Licht zu werfen vermag. Eine solche Analogie erschließt Beziehungen zwischen Systemen, die bisher in keinem Kausalitätszusammenhang zueinander gesehen wurden, und ermöglicht aus der Erkenntnis der Beziehung eines Systems zu anderen Rückschlüsse auf die internen Verhältnisse zwischen dem jeweiligen System und seiner Elemente. Diese Art des Analogie-Denkens gewinnt ihre Kraft in Gemeinsamkeit mit anderen neuzeitlichen Arten des Denkens: Reflexionslogik, dynamische Systeme, imaginäre Zahlen. Einleitend ist auf metaphéro zurückzukommen, wörtlich ‘Übertragung’.

Metaphern Das von Rella gemeinte Analogie-Denken verlässt die kausalen Beziehungen innerhalb eines Systems und stellt einen transkausalen Bezug zu einem anderen System her, das eigenen Binnenverhältnissen folgt. Diese Art zu denken ist metaphorisch.

"Eine Metapher ist die Übertragung eines Wortes (das somit in uneigentlicher Bedeutung verwendet wird), und zwar entweder von der Gattung auf die Art, oder von der Art auf die Gattung, oder von einer Art auf eine andere oder nach den Regeln der Analogie (kata to analogon." (Aristoteles Poetik 21, 1457b).

Für Aristoteles ist die Fähigkeit, Metaphern zu finden, Zeichen der Kreativität.

"Es ist aber bei weitem das Wichtigste, dass man Metaphern zu finden weiß. Denn dies ist das Einzige, das man nicht von einem anderen erlernen kann, und ein Zeichen von Begabung. Denn gute Metaphern zu bilden bedeutet, dass man Ähnlichkeiten zu erkennen vermag." (Aristoteles Poetik 22, 1459a)

Mit Metaphern können nach Aristoteles sowohl wechselweise Übertragungen von Eigenschaften des Systems (der Gattung) auf seine Elemente (Arten) wie auch zwischen verschiedenen Gattungen gemeint sein. Nur im letzten Fall spricht er von Analogien. Mit Analogie-Denken sind die Regeln und Methoden gemeint, mit denen Analogien gebildet werden können. Verhältnisse zwischen Gattungen und Arten werden traditionell nur homologisch untersucht, wenn nach enzyklopädischen Gesichtspunkten Gattungen und Arten aufgebaut sind.

Für mich öffnet das Analogie-Denken nach Rella den Weg zu einer neuen Art, die wechselseitigen Beziehungen eines Systems und seiner Elemente zu erkennen. Während Aristoteles nur an das Verhältnis von Gattungen und Arten dachte, die in einer Enzyklopädie angeordnet sind, kann ausgehend von geeigneten Analogien ein Ansatz gefunden werden, die Zyklizität des Systems und seiner eigenen Elemente zu verstehen. Traditionell werden nur die Relationen zwischen den Elementen eines Systems gesehen. Bei der hier gemeinten Zyklizität geht es dagegen um die Wechselwirkung zwischen einem System und seinen Elementen.

Reflexionslogik Solche Wechselwirkungen sind erst erkannt worden, nachdem zweierlei möglich wurde: Erst die Neuzeit schuf ein vertieftes Verständnis von Reflexion und Dynamik. Das neuzeitliche Reflexionsdenken ermöglicht es schrittweise genauer, von einem System Abstand zu gewinnen und das System von außen sehen zu können. Wichtige Etappen waren die Reflexionslogik von Hegel und das neuartige psychologische Verständnis der Spiegelphase in der Psychoanalyse von Lacan.

Dynamische Systeme Zugleich entstand mit den neuzeitlichen Untersuchungen von Grenzübergängen und dynamischen Systemen insbesondere bei Newton und Euler ein neuer Begriff von Bewegung und Bewegtheit, der zwar an Aristoteles anknüpfen konnte, aber sachlich weit über ihn hinaus ging. Erst als es gelang, die spezifische Bewegtheit eines Systems zu erkennen (Hydrodynamik bei Euler, Wärmeleitung und Diffusionsprozesse, Elektrodynamik, die Dynamik des Universums im Ganzen nach der Allgemeinen Relativitätstheorie, Quantendynamik), die sich unterscheidet von der Bewegung der einzelnen Elemente des Systems, wurde es möglich, in diesen Systemen Naturkonstanten nachzuweisen, die unabhängig von den einzelnen Elementen für das System im Ganzen gelten. Ein Vorbote war die Gravitationskonstante, die bereits auf eine spezifische Systemeigenschaft des Raums hinweist, doch der Durchbruch gelang erst mit dem Nachweis der Lichtgeschwindigkeit für die Elektrodynamik und des Planckschen Wirkungsquantums für die Thermodynamik.

Imaginäre Zahlen Als letzter Baustein werden die imaginären Zahlen und die mit ihnen gegebene Zyklizität notwendig.

In diesem Umfeld konnte das Analogie-Denken entstehen, wie es Rella beschrieben hat, und ermöglicht in einem weiteren Schritt das Zyklizitäts-Denken.

Mit dem Zyklizitäts-Denken wird ein Ausweg aus Russells Verbot selbstbezüglicher Schlüsse zwischen einem System und seinen Elementen gefunden. Eine klassische Analogie kann verdeutlichen, was damit gemeint ist: So wie bei der Voraussage des Neptun aus den abweichenden Bewegungen der bekannten Planeten in einem Homologie-Schluss auf einen noch unbekannten Planeten geschlossen wird, der weiter draußen auf der Reihe aller Planeten liegt, so wird in dem von Rella gemeinten Analogie-Schluss bei abweichenden Bewegungen von Elementen eines Systems auf die noch unbekannte Bewegtheit des Systems im Ganzen geschlossen. Der Schluss führt nicht seitwärts, sondern hinauf. Ein schlagendes Beispiel ist die Thermodynamik eines isolierten Teilchens, die Louis de Broglie (1892-1987) in seinen späten Jahren untersucht hat: Für ein solches Teilchen ist die Reihe aller Elemente verkürzt auf ein einziges Element, und dennoch lassen sich an seinem Verhalten Abweichungen nachweisen. Diese können nicht von einem anderen, homologen Element auf der gleichen Reihe herrühren, – denn es gibt in der Thermodynamik des isolierten Teilchens keine anderen Teilchen –, sondern nur aus der Bewegtheit des Systems im Ganzen, oder in anderer Sprachweise aus dem unterhalb des Teilchens liegenden Grund, dem »subquanten Milieu«. Das isolierte Teilchen ändert seinen Zustand. Die Änderung entsteht jedoch nicht wie in üblichen mechanischen Systemen durch Kollisionen mit anderen Teilchen, sondern in einem übertragenen (metaphorischen) Sinn durch »Kollisionen« mit der ungleichmäßigen Verteilung der Bewegtheit des Systems in Raum und Zeit. Beziehungen dieser Art bleiben verborgen, wenn versucht wird, innerhalb eines bestimmten Systems zu verbleiben. Um sie zu entdecken, sind Analogien zu anderen Systemen erforderlich. Für de Broglie war das die Analogie des Planckschen Wirkungsquantum h aus der Quantendynamik und der Boltzmann-Konstante k aus der Thermodynamik. Mittels dieser Analogie konnte die Beziehung zwischen der Bewegtheit des Systems und der Bewegung seiner Elemente gefunden werden.

Analogien sind sowohl im Sinne des Tautologie- wie des Homologie-Denkens unwahr. Sie werden weder deduktiv aus einer bereits bekannten Wahrheit noch induktiv entlang einer Reihe erschlossen. Rella übernimmt daher stattdessen als ihr Prinzip die Abduktion (apagoge), die »im Wesentlichen von dem amerikanischen Philosophen und Logiker Charles Sanders Peirce (1839-1914) in die wissenschaftliche Debatte eingeführt wurde« (Wikipedia, abgerufen am 27.12.2017). Der Eintrag in Wikipedia zitiert von Peirce:

»Abduktion ist jene Art von Argument, die von einer überraschenden Erfahrung ausgeht, das heißt von einer Erfahrung, die einer aktiven oder passiven Überzeugung zuwiderläuft. Dies geschieht in Form eines Wahrnehmungsurteils oder einer Proposition, die sich auf ein solches Urteil bezieht, und eine neue Form von Überzeugung wird notwendig, um die Erfahrung zu verallgemeinern.«
    »Die überraschende Tatsache C wird beobachtet; aber wenn A wahr wäre, würde C eine Selbstverständlichkeit sein; folglich besteht Grund zu vermuten, daß A wahr ist.« (Peirce Collected Papers Band 5, 171, 189)

An diesem Verständnis der Abduktion zeigt sich zweierlei: Zum einen betont Peirce das Überraschungsmoment. Damit ist offensichtlich mehr gemeint als im Beispiel der Planeten-Bewegung die Abweichung der Planetenbahnen von der erwarteten Gestalt. Eine überraschende Erfahrung zeigt ein bisher völlig unvertrautes Phänomen. Diesen Gedanken nimmt Rella von Peirce auf. Zum anderen bleibt aber auch Peirce im Horizont des Homologie-Denkens. Er sucht zur überraschenden Tatsache C eine weitere Tatsache A, die sich wie C innerhalb des gegebenen Systems befindet, um aus der Tatsache A die Tatsache C erklären zu können. Rella übernimmt zwar die von Peirce genannte formale Struktur der Abduktion, jedoch schließt er nicht von der überraschenden Tatsache C auf eine andere Tatsache A, sondern auf eine Eigenschaft des Systems, dem C angehört.

Das klingt gegenüber dem üblichen logischen Denken sehr ungewöhnlich, kann aber an einfachen Beispielen aus dem alltäglichen Leben motiviert werden. Wer in die Brandung eines Meeres baden oder surfen geht, wird versuchen, seine eigene Bewegung auf die Bewegtheit des Meeres abzustimmen. Von außen sieht die Wellenbewegung des Meers sehr gleichmäßig aus. Wer sich in das Meer stellt und die Augen schließt, wird spüren, welche überraschenden Wellenströmungen einen umzustoßen und mitzureißen drohen. Wer die Augen öffnet und mit allen Sinnen der Bewegtheit des Meers folgt, wird sich in den Flow des Systems begeben und getragen von einer Welle der Begeisterung Bewegungen ausführen können, die weit über die eigenen Kräfte hinausgehen. Nicht anders ist es beim gemeinsamen Musizieren. Die Spieler oder Sänger nehmen intensiven Augenkontakt zueinander auf (oder bei großen Ensembles zum Dirigenten) wie auch zum Publikum. Darüber entsteht ein Zusammenklang und eine Wechselwirkung mit den Hörern, die das Unvergleichliche eines Live-Konzerts ausmacht.

Für Rella gelingt mit dem Analogie-Denken nicht nur der Schluss von einzelnen Elementen auf das System, sondern es werden alle reduktionistischen Tendenzen der Fachwissenschaften überwunden. Statt nach einer Leitwissenschaft zu suchen, auf die alle anderen Wissenschaften zurückgeführt werden sollen, – sei das nun die Physik, Biologie, Medizin, Ökologie, Psychologie, formale Logik, Mathematik, Informatik, Linguistik oder eine andere –, sucht der Schluss der Analogie nach einem Dritten, das  zwischen  den Fachdisziplinen liegt, ihre jeweiligen Grenzen überschreitet (transzendiert) und zwischen ihnen vermittelt. Rella versteht das als »transkausal« (Rella 1984, 134). Für ihn gibt es zum einen Kausalität innerhalb einer Fachdisziplin, mithilfe derer dort alle bekannten Erscheinungen auseinander hergeleitet werden können, und zum anderen die übergreifende Transkausalität, mit der Beziehungen zwischen verschiedenen Fachdisziplinen hergestellt werden können.

Die beiden kanonischen Beispiele sind für Rella die Temperatur in der Thermodynamik und die Raumausdehnung in der modernen Kosmologie. »So ist also der Begriff der Expansion des Universums dem Begriff der Temperatur analog.« (Rella 1984, 145) Die Temperatur misst den Druck des thermodynamischen Systems im Ganzen, die Expansion die Bewegung des Raums im Ganzen. Es gibt zum einen die Bewegtheit des Rahmens (die Temperatur bzw. die Expansion oder Kontraktion) und zum anderen die Bewegungen innerhalb des Rahmens. Wenn sich zwei Teilchen im Raum bewegen, verändert sich ihre Entfernung zum einen aufgrund ihrer eigenen Bewegung, zum anderen aufgrund der Ausdehnung des Raums im Ganzen. Die Häufigkeit von Kollisionen in einem Gas ergibt sich zum einen aus der Eigendynamik der beteiligten Gasmoleküle, zum anderen aus dem »Druck im Kessel«, der alle Bewegungen beschleunigt oder bremst. Das hier zugrunde liegende Analogie-Denken wird von Rella in drei Stufen entwickelt.

(1) Die reine Information enthält noch keine Materie, sondern ist in den Worten von Walter Rella ein reiner Rahmen von Möglichkeiten, für sich Nichts. Hier gilt nichts weiter, als dass »der Informationswert eines Einzelzeichens von seiner Häufigkeit innerhalb eines gegebenen Zeichenrepertoires abhängt« (Rella 1984, 145). Es gibt eine Sprache, die aus einem Alphabet Z besteht. Das ist die Gesamtheit aller möglichen Zeichen. Mit Alphabet sind in der Informatik nicht nur die Buchstaben, sondern auch Satz- und Operationszeichen gemeint. Innerhalb des Alphabets Z kann für jedes einzelne Zeichen z ∈ Z die Wahrscheinlichkeit (Häufigkeit) pz gemessen (gezählt) werden, wie oft dieses Zeichen in einem Text auftritt. Im einfachsten Fall beträgt für alle Zeichen die Wahrscheinlichkeit, dieses Zeichen an einer bestimmten Stelle anzutreffen, jeweils 1/p. Dann ist die Wahrscheinlichkeit, dass an diesem Punkt zwei Zeichen kollidieren, – d.h. in diesem Kontext: miteinander zu einem gemeinsamen Text-Ausdruck verknüpft werden –, das Produkt beider Wahrscheinlichkeiten, also 1/p · 1/p = 1 / p2.

Der Mathematiker und Elektrotechniker Claude Shannon (1916-2001) hat die Mathematik der Wahrscheinlichkeitsverteilung von Zeichen in einem Text näher ausgearbeitet. Er wollte Voraussagen treffen, wann und in welchem Ausmaß Informationen bei der Datenübertragung verzerrt werden können, bis sie möglicherweise missverständlich oder gar völlig unverständlich werden. Das kann nicht an den Inhalten selbst erkannt werden, – denn es geht genau um die Frage, ob die Inhalte verlässlich sind –, sondern nur an einer formalen Betrachtung unabhängig vom jeweiligen Inhalt. Wenn die Wahrscheinlichkeitsverteilung der empfangenen Zeichen von der im jeweiligen Text erwarteten Wahrscheinlichkeitsverteilung abweicht (wenn also z.B. in einem deutschen Text auffallend selten das Zeichen ‘e’ auftritt), ist das unabhängig vom jeweiligen Inhalt ein Hinweis, dass der Text im Ganzen korrupt ist. Es muss ein Grundrauschen im System geben, durch das die Informationsübertragung beeinträchtigt wird. Diese Frage war für ihn von ganz praktischer Bedeutung. Er wollte das richtige Maß finden, zum einen Nachrichten redundant zu versenden, damit trotz des Grundrauschens die Botschaft entschlüsselt werden kann, und andererseits die Redundanz so weit als möglich vermindern, um Aufwand und Kosten zu sparen. Hier entstand historisch das von Rella gemeinte Analogie-Denken: Einerseits gibt es für jede Sprache eine typische lokale Verteilung aller Elemente des Alphabets. Andererseits gibt es in jedem übertragenen Text eine Abweichung, die auf das Grundrauschen des Sprachträgers zurückgeht. Ein Text wird nicht mehr als ein absolut für sich bestehender Corpus gesehen, sondern als ein Element in einem System der Kommunikation. Über Shannon hinausgehend können die Abweichungen auf unterschiedlichste Ursachen zurückgeführt werden: Sprachliche Fehler des Senders, der sich ungeschickt ausdrückt oder dem Schreibfehler unterlaufen; Fehler während der Datenübertragung durch störende äußere Einflüsse; Fehler auf Seiten des Empfängers, der den Text nicht unbefangen aufnehmen kann, sondern vorgeprägt ist durch subjektive Erwartungen oder Vorurteile, und schließlich aus Systemfehlern wie beispielsweise ein zu kleiner oder ein zu großer Zeichenvorrat oder eine unklare oder fehlende Trennung von Buchstaben und Satzzeichen. Gödel hat nachgewiesen, dass Systemfehler dieser Art prinzipiell unvermeidbar sind. Daraus ergibt sich als Konsequenz, dass es in der Natur eines jeden Systems liegt, von einem Grundrauschen beeinträchtigt zu werden. Daher steht für mich Shannon gleichberechtigt neben Gödel. Beide zusammen haben einen Paradigmenwechsel in der Textanalyse, Theorie der Kommunikation und Logik angestoßen, der weit über Frege und Wittgenstein hinausgeht und bis heute in der Philosophie kaum gewürdigt – um nicht sagen: systematisch verdrängt – wird.

(2) Informationstheorie und Thermodynamik sind formal nahezu identisch. In der Thermodynamik tritt an die Stelle des Alphabets die Gesamtheit der bewegten Gasmoleküle in einem offenen oder geschlossenen System, und die Thermodynamik zählt statt der Häufigkeit von Zeichen in einem Text die Wahrscheinlichkeiten, ein bestimmtes Molekül an einem bestimmten Ort vorzufinden. Eine Kollision liegt vor, wenn sich zwei Moleküle an einem Ort treffen und dadurch ihre Geschwindigkeit und Bewegungsrichtung ändern. In der Thermodynamik kommt jedoch gegenüber der Informationstheorie eine »natürliche« Größe hinzu: die Boltzmann-Konstante. Das Grundrauschen des Systems ist nicht mehr rein kontextabhängig und muss nicht mehr für jeden Text und seinen Sender, seine Übertragung und seinen Empfänger neu ausgezählt werden, sondern ist abhängig von einer Naturkonstante, die für alle thermodynamischen Systeme gilt. Mit ihr stellt sich die Frage, ob es logische Hinweise gibt, die ihren Wert erklären kann, oder ob wenigstens inhaltliche Bezüge zwischen ihrem Wert und logischen Fragen zu erkennen sind.

In diesem Rahmen ist die von de Broglie entwickelte Thermodynamik eines isolierten Teilchens zu verstehen. Wenn nachgewiesen werden kann, dass es sich an bestimmten Orten überdurchschnittlich oft befindet, kann daraus der Anteil der Bewegtheit des Systems herausgerechnet werden.

(3) Der Schluss vom Bewegungsverhalten eines isolierten Teilchens auf die Bewegtheit des thermodynamischen Systems im Ganzen entspricht formal dem Schluss bei Einstein, wenn von Abweichungen der erwarteten Verteilung der Materie und ihrer Geschwindigkeiten auf die Krümmung des Raums geschlossen wird, in dem sie sich bewegen. Als Erstes werden wie im Falle der Entdeckung des Neptun Abweichungen auf das Wirken bisher unbekannter Himmelskörper zurückgeführt. Wenn solche Körper nicht nachweisbar sind, wird mit der Relativitätstheorie angenommen, dass es in der Nähe eines Körpers, der sich anders als erwartet bewegt, Materie geben muss, die den Raum krümmt und dadurch dessen Bewegung verändert. Mit diesem Argument konnten die Abweichungen der Bewegung des Planeten Merkur durch die von der Sonne mit ihrer Materie bewirkte Raumkrümmung erklärt werden. Wenn auch kein den Raum krümmender Himmelskörper nachgewiesen werden kann, werden Abweichungen aus der Verteilung der Materie im Ganzen erklärt. Das kommt dem Übergang in die Bewegtheit des Systems schon sehr nahe. Wenn auch das versagt, kann nur noch von der Bewegtheit des Raums im Ganzen gesprochen werden. Das ist die ursprüngliche Bedeutung der Schwarzen Löcher. Mit der Existenz Schwarzer Löcher und dem darüber hinaus gehenden Lochargument werden im Raum Singularitäten gefunden, die die Bewegtheit des Raums im Ganzen anzeigen unabhängig von der Dynamik der in ihm verteilten Materie. Diese Vorstellung widerspricht jeder natürlichen Intuition, und daher wird versucht, die Schwarzen Löcher ihrerseits aus Vorgängen in der Materie, d.h. konkret mit einer mathematisch exakt formulierbaren, physischen Entstehungsgeschichte aus einem Gravitationskollaps sehr großer Sterne zu erklären. Wenn das gelingt, handelt es sich im strengen Sinn um keine Schwarzen Löcher mehr, sondern um Materie, die an einem bestimmten Punkt ihrer Entwicklung in einen außergewöhnlichen Zustand geraten ist. Von ihrem Begriff her sind Schwarze Löcher jedoch Singularitäten, an denen sich der Raum krümmt, ohne dass es bestimmte Körper gibt, aus deren Existenz oder Lebensgeschichte das zu erklären ist. Schwarze Löcher zeigen die Bewegtheit des Raums an sich unabhängig von den Elementen, die sich im Raum befinden.

Mit dem Analogie-Denken kehren in einem neuen Kontext absolute Größen zurück, wie sie bereits im Tautologie-Denken bekannt waren und vom Homologie-Denken negiert wurden. (a) Die Temperatur fällt bei −273° Celsius auf den absoluten Nullpunkt, der nicht unterschritten werden kann, oder die Ausdehnung des Raums kann auf einen absoluten Nullpunkt kontrahieren (Moment des Urknalls vor etwa 13,8 Mrd. Jahren). Das ist für Walter Rella der »Erstarrungspunkt« (Rella 1984, 144). (b) Das System kann sich in reine Bewegung verwandeln. Das ist mit Einstein der Bewegungszustand des Photons. Wer sich in diesen Zustand begibt, für den ist alles gleichzeitig da. Beide Zustände befinden sich in einer absoluten Kollision, in der alles mit allem kollidiert. Mit Nikolaus Kues können beide Grenzzustände gleichgesetzt werden. Das Analogie-Denken führt mit seinem Schluss auf die Bewegtheit der Systeme und den Nachweis von Naturkonstanten innerhalb dieser Bewegung in eine neue Metaphysik. Diese Metaphysik ist jedoch nicht mehr wie im Tautologie-Denken eine von außen kommende Offenbarung, sondern Ergebnis wissenschaftlicher Forschung. Boltzmann und Einstein haben diese Fragen auf ihren Fachgebieten nicht nur abstrakt metaphysisch betrachtet, sondern sie haben jeder auf seine Art gezeigt, wie sich sogar in den empirisch nachweisbaren Phänomenen die Auswirkungen dieser Grenzzustände zeigen. Oder anders gesagt: Diese Grenzen sind nicht einfach irgendwo fern dort draußen, sondern sie durchziehen auf genau bestimmbare Weise das Sein.

Lässt sich das in einem Grenzübergang bis auf die Mathematik übertragen? Nachdem es Gödel gelungen war, den blinden Fleck der Mathematik zu erkennen, war für ihn sicher, dass es auch innerhalb der natürlichen Zahlen nicht nur den von Cantor eingeführten Grenzwert ω gibt, sondern bei der Bildung von Potenzmengen (das ist in diesem Beispiel die Betrachtung aller Untermengen innerhalb der natürlichen Zahlen) einen Grenzwert geben muss, jenseits dessen sich etwas ändert. Wang schrieb in den Protokollen seiner Gespräche mit Gödel: »8.2.13 The power set operation involves a jump. In this second jump we consider not only the members of a set as given but also the process of selecting members from the set.« (Wang, 258) Das ist für mich konkret die Frage, ob sich aus der von Gödel nachgewiesenen Unvollständigkeit nicht nur ein Grundrauschen in jedem formalen Kalkül nachweisen lässt, sondern auch vergleichbar dem Planckschen Wirkungsquantum ein Maß, welches das Grundrauschen von der Position und Bewegung aller Elemente im System unterscheiden lässt.

Möglicherweise wirft das ein neues Licht auf die Primzahlverteilung. Wer nach dem Erkenntnisstand der heutigen Mathematik Schritt für Schritt die Reihe der natürlichen Zahlen entlang geht (d.h. im elementaren Sinn zählt), wird völlig überraschend (rein zufällig) immer wieder auf Häufungen von Primzahlen treffen. Es gibt bis heute keine bekannte Regel, wann Primzahlen auftreten. Sicher gibt es viele Ausschluss-Regeln (so kann keine gerade Zahl, d.h. keine Zahl mit der Endziffer 0, 2, 4, 6 oder 8 eine Primzahl sein, da sie durch 2 teilbar ist, und ebenso wenig eine Zahl, deren letzte Ziffer 5 ist, da sie durch 5 teilbar ist, usf.), aber es gelingt nicht, induktiv vorauszusagen, wann und wie viele Primzahlen auf der Zahlenachse in einem bestimmten Zahlenintervall zu erwarten sind. Das hat Riemann zu der Vermutung geführt, dass die Zahlenachse zu verlassen ist und es im Bereich der Zahlenebene der imaginären Zahlen einen Kurvenverlauf gibt, der die reelle Zahlenachse genau dort schneidet, wo Primzahlen liegen. Wer diesen Kurvenverlauf kennt, kann Primzahlen voraussagen.

Eine solche Lösung ist bis heute nicht gefunden worden. Sie bliebe im Homologie-Denken, denn der Kurvenverlauf könnte seinerseits als eine Reihe homologer Elemente verstanden werden, aus deren Eigenschaften induktiv geschlossen werden kann, wann sie die reelle Zahlenachse treffen und dort auf eine Primzahl stoßen. Angenommen, ein Mathematiker hat die Intuition, in einer bestimmten Bewegung das Vorbild für die gesuchte Funktion der Primzahlverteilung zu finden, dann wäre das im klassischen Sinne eine Analogie: Es könnte gesagt werden, die Funktion der Primzahlverteilung verhält sich wie der Bewegungsverlauf der Fibonacci-Zahlen, die embryonale Wachstumslinie bestimmter Zellen, die dynamische Entwicklung bestimmter Membrane oder was auch immer erfolgreich als Analogie erkannt werden sollte. Das wäre ein gewaltiger Durchbruch für die Mathematik, es wäre im engeren Sinn eine Analogie, aber noch nicht die Art von Analogie nach oben, die Rella meint. Eine Analogie, wie sie in meinem Verständnis Rella vorschwebt, wäre dann gegeben, wenn nicht wie von Riemann vermutet ein Kurvenverlauf auf der Zahlenebene gefunden wird, sondern eine Bewegtheit der Zahlenebene im Ganzen, die sich analog verhält wie eine Bewegtheit der reellen Zahlenachse. Die Primzahlen wären nach dieser Vermutung Knotenpunkte, die sich dort ergeben, wo die lokale Bewegung entlang der Zahlenachse (die von Aristoteles und ihm folgend Hegel genannte Fließbarkeit der einzelnen Punkte) in Resonanz gerät mit einer übergreifenden Bewegtheit der Zahlen im Ganzen, gewissermaßen schwarze Löcher auf der Zahlenachse. – Es gibt bis heute noch nicht einmal einen Ansatz, um diese Frage zu lösen. Denkbar ist für mich die Zyklizität der Zahlen, d.h. die Erkenntnis, wie schnell oder langsam sich bestimmte Eigenschaften entlang der Zahlenachse oder auf der Zahlenebene fortpflanzen. Das könnte das Grundrauschen sein, das sich als Konsequenz aus den Unvollständigkeitssätzen von Gödel ergibt.

Das Thema der Analogie erwächst innerhalb des Homologie-Denkens. Ganz im Sinne von Hegel kann ein Schluss gezogen werden von der Tautologie über die Homologie auf die Analogie: Die Homologie negiert die Tautologie, und innerhalb der Homologie kommt es zum Wendepunkt, wenn sie ihrerseits negiert wird. Diesen Wendepunkt sehe ich in dem bereits genannten Verständnis der Kontinuität. Die Kontinuität erweist sich mit Hegel als die wahre Unendlichkeit, die sich an der homologen Unendlichkeit zeigt, aber nicht in der homologen (schlechten) Unendlichkeit liegt. Das induktive Denken kann nur entlang der Punkte der Reihe fortschreiten, und wird nirgends auf der Reihe die Kontinuität finden, die die innere Eigenschaft der Reihe zeigt. Das entspricht dem formalen Argument von Cantor, dass im Vorgang des Zählens niemals die Eigenschaft der zählbaren Menge, – das ist für ihn die mit hebräischen Buchstaben symbolisierte Mächtigkeit – erreicht werden kann. Die Kontinuität (wahre Unendlichkeit, Mächtigkeit) zeigt sich am Zählen, ist aber nicht ihrerseits eine Zahl. Da sie aus der Reihe der Zahlen herausfällt, ist sie im Sinne des Homologie-Denkens unwahr. Dies Paradox entsteht im Homologie-Denken und führt aus ihm heraus zum Analogie-Denken.

Negative Ereignisse

Rella hat erstmals 1999 in seinem Vortrag Beyond Analysis and Synthesis beim Wittgenstein-Symposium in Kirchberg am Wechsel von negativen Ereignissen (negative events, negvents, neguents) gesprochen. Wenn mit einer Analogie von der Bewegung einzelner Elemente in einem System nach oben auf die Bewegtheit des Systems im Ganzen geschlossen werden soll, die unabhängig von der Bewegung der einzelnen Elemente besteht und mit dieser kollidieren kann, stellt sich die Frage, ob es für die beiden Arten der Bewegung jeweils eigene Zeithorizonte geben muss und wie diese vermittelt werden können. Er geht von der These aus, dass heute die beiden Begriffe Zeit und Ereignis zirkulär definiert werden. »Time and event were defined in a tautological way. Events were the conditions for the flux of time, and reversely, time was the condition for the flux of events. We were unable to leave this circle.« (Rella 1999, 164) Dieser Zirkel kann durchbrochen werden, wenn mit Ereignissen das reale Geschehen gemeint ist, wie sich die jeweiligen Elemente in einem System bewegen, und diese Ereignisse vor dem Hintergrund der Bewegtheit des Systems gesehen werden. Die Bewegtheit des Systems hat eine eigene Dynamik, geht über die Bewegungen der einzelnen Elemente hinaus und bildet aus Sicht der einzelnen Elemente einen Möglichkeitsraum, der mehr enthält als die wirklichen Ereignisse, die wahrgenommen und gemessen werden können. Mit negativen Ereignissen sind diejenigen Möglichkeiten gemeint, die zwar möglich, aber nicht wirklich geworden sind. Rella nennt sie in einer eigenen Wortschöpfung negvents oder neguents (zusammengezogen aus negative events). »'Neguents' form the background of time, in which any event will be related.« (Rella 1999, 164).

Sie können umgangssprachlich als verpasste Gelegenheiten gesehen werden, oder auch positiv als Risiken, die nicht eingetreten sind. Jeder physische Prozess ist umgeben von einem Raum an Möglichkeiten, die ihn schwächen oder stärken, aufleben lassen oder auflösen können. Rella sieht das auf elementarer Ebene im Geschehen der einzelnen Gasmoleküle in einem thermodynamischen System.

»The molecule will last some time and then decay again. [...] The molecule will resist the thermodynamic process, that is, it will resist negative events. This resistance against the continuum is a measure for the existence of that molecule. So existence is related to resistance and events are related to what we could call 'neguents'.« (Rella 1999, 164)

In einem späteren Text spricht er von »verwirkten Gelegenheiten« und »versäumten Gelegenheiten«. Sie »können nicht wirklich gezählt werden« und reichen »vor jeden Anfang hinab« (Rella, ZuE, 5). Es handelt sich um eine »negative Wahrscheinlichkeit« mit »imaginären Wahrscheinlichkeiten«, und »durch die Analogie haben sie, jenseits bloß gedachter oder kausaler Ordnung, ihre wahre Einheit« (Rella, ZuE, 6).

Der Grundgedanke erscheint mir klar, doch müssen die unterschiedlichen Beschreibungen als negativ, imaginär und kontinuierlich genauer differenziert werden. Wichtig ist zunächst das Anliegen zu verstehen. Für mich zeigt sich hier seine Erfahrung als Arzt mit Schwerpunkt auf der Immunmedizin. Jedes Immunsystem hat die Aufgabe, ein gegebenes System vor äußeren Einflüssen zu schützen und gleichzeitig den lebensnotwendigen Stoffwechsel mit der Umgebung aufrecht zu erhalten.

»Das Wirkliche, das Positive, ist an seiner Grenze je und je dem Nicht-Wirklichen, dem Negativen, ausgesetzt. Insofern muss das Positive den Widerspruch zum Negativen je und je aushalten und hat nur darin Bestand. Das gilt schon für den Eiswürfel, der sich im warmen Wasser auflöst – die Temperatur als Andrang des Negativen – und gilt noch mehr für ein Lebewesen, das je und je dem Tod (der Unordnung) ausgesetzt ist und ihm Widerstand leisten muss. Das impliziert ein Hinausgehen aus sich selbst und eine Umkehr zu sich selbst, wie du schreibst. Auf der einen Seite braucht das Leben die Temperatur – also das Negative 'draußen' – um hinauszugehen (sonst würde es erstarren), auf der anderen Seite ist es durch die Temperatur bedroht zu verbrennen oder zu schmelzen und so die Umkehr zu versäumen. Vielleicht versteht Hegel darunter jenes Pulsieren des Widerspruchs? Dabei kommt es auf die relative Frequenz an: Wenn eine äußere 'Gefahr' (der Andrang des Negativen) die Reaktionszeit des Organismus (oder schon eines Atoms oder Teilchens) übersteigt, dann droht Zerfall.« (Rella, E-Mail vom 4.11.2016)

Imaginäre Zahlen und Goldener Schnitt

Negative Ereignisse werden zunächst als Überraschungen wahrgenommen und negieren alles, was bisher bekannt ist. Sie kommen wie aus dem Nichts und stoßen das Analogie-Denken an, für diese Überraschungen, die aus den jeweils bekannten und mathematisch formulierbaren Bewegungen einzelner Elemente nicht erklärt werden können, alternativ eine Erklärung in der Bewegtheit des Systems zu suchen. In einem ersten Denkansatz können sie in den verborgenen Tiefen des bekannten Systems selbst stecken. Sie führen dann nicht – wie im Beispiel der Entdeckung des Neptun – auf ein neues, bisher unbekanntes Element oder wie bei der Primzahlforschung zur Entdeckung neuer Primzahlen, sondern sie könnten wie die Zahlen e und pi verborgen sein in den Bereichen, die auf der reellen Zahlenachse zwischen den abzählbar vielen rationalen und irrationalen Zahlen liegen. Der im Homologie-Denken entstandene Begriff der Kontinuität als des wahren Unendlichen führt aus sich heraus zu einer neuen Klasse von Zahlen (und bezogen auf die Zeitachse: von Ereignissen), die nicht unter den Hut der bekannten rationalen Zahlen und Ereignisse passen.

Wird versucht, für diese Zahlen und Ereignisse, die prinzipiell  zwischen  den bekannten Zahlen und Ereignissen liegen und sich allen Versuchen widersetzen, sie in eine Zahlen- oder Zeitreihe, oder in eine Kausalitäts-Folge oder Schluss-Kette zu bringen, ihre eigene innere Bewegtheit zu erkennen, kann nur unbestimmt von ihrer Pulsation oder Oszillation gesprochen werden. Sie enthalten an sich den inneren Widerspruch, zugleich noch in Ruhe und schon in Bewegung zu sein, zugleich dimensionslos wie ein Punkt und nur durch eine Umgebung definierbar zu sein (oder mit Dedekind durch einen Schnitt in einer Menge, die ihrerseits nicht ausschließlich aus Schnitten bestehen darf). Zahlen in einem Kontinuum müssen an sich Eigenschaften tragen, die als solche nur auf der Menge definiert werden können, der sie angehören. Zahlen oder Ereignisse werden definiert durch ihre Fließbarkeit oder im Sinne der Mathematik durch  Grenzprozesse. Um diese darstellen zu können, muss die Zahlenachse verlassen und in die Zahlenebene der komplexen Zahlen übergegangen werden.

»Diese Zeitachse, die durch die Oszillation des Grundes hervorgerufen wird, kann an sich selbst nicht erscheinen, wie Zeit überhaupt nur zirkulär, d.h. gar nicht, definiert werden kann. Die Oszillation scheint mir daher ein gutes Bild für die 'negativen Ereignisse' abzugeben, mit denen ich mich herumgeschlagen habe. Auf diese imaginäre Achse ist alles bezogen, was wirklich in Erscheinung treten kann. Wir haben also immer dieses Verhältnis von Möglichkeit zu Wirklichkeit vor uns, woraus allein das Daseiende seine Größe (Dimension - Zentimeter, Gramm, Sekunde), verstanden als Informationsgröße, herleitet. Wenn die Oszillation – das heißt: die Iteration – irrational ist, dann verbleibt sie in der reinen Möglichkeit, ist sie aber rational, dann ergeben sich Lücken innerhalb der reinen Möglichkeit, innerhalb welcher Wirklichkeit bahnbar ist.« (Rella, E-Mail vom 22.6.2017)

Der Analogie-Schluss von der Bewegung einzelner Elemente zur Bewegtheit des Systems trifft ins Herz der Russellschen Antinomie. Es war ein schlagendes Argument von Gödel gegen Russell, dass in einer stringent eingehaltenen Typentheorie die reellen Zahlen nicht definiert werden können, da ihre wesentliche Eigenschaft nur auf Ebene der Mengen bestimmt werden können, denen sie als Elemente angehören (sei dies der Grenzprozess von Intervallen, die um die reelle Zahl zusammengezogen werden, oder die Überdeckung durch ein System kompakter Mengen).

Aus dieser Sackgasse hat nach meiner Kenntnis bis heute nur die von Spencer-Brown entwickelte Logik hinausführen können, was Russell, mit dem er bekannt war, umgehend bestätigt hat. Spencer-Brown hat auf verblüffend einfache Weise im Bereich der imaginären Zahlen eine Darstellung und darüber ein Bewegungsgesetz gefunden, mit dem sich die Russellsche Antinomie beschreiben und lösen lässt. (Siehe hierzu den Beitrag Spencer-Brown Gesetze der Form.)

»Da die Typentheorie für die Mathematik sehr grundlegend ist und sie seinerzeit eingeführt wurde, um damit mehrstufig Antinomien zu vermeiden, glaube ich, dass die Einführung negativer Typen tatsächlich neue Möglichkeiten für die Mathematik eröffnet. Aber war es nicht so, dass Spencer-Brown mit seiner Formel: x = −1/x Russell's Antinomie nachgestellt hat und sie durch die Verwendung komplexer Zahlen operierbar machte? Braucht man also negative Typen für etwas, das bereits anderweitig elegant gelöst wurde? Ich würde lieber auf die Typentheorie verzichten.« (Rella, E-Mail vom 17.12.2017)

Das führt Rella zur Idee, die von Spencer-Brown eingeführte Darstellung zu verknüpfen mit der mathematischen Darstellung des Goldenen Schnitts über die Fibonacci-Zahlen (Formel von Moivre und Binet). Das ist für mich Stoff für weiterführende Arbeiten und soll abschließend als Perspektive genannt werden, in der das Analogie-Denken ausgearbeitet werden kann.

»In Anlehnung an Spencer-Browns Idee könnte der Vektorraum durch die Formel des Goldenen Schnittes, aber ins Komplexe verkehrt, dargestellt werden: x + 1 = −1/x. Darin sehe ich die Formalisierung einer weiteren Antinomie, die ich – angelehnt an Kant – folgendermaßen formulieren möchte: (a) Die Zukunft ist unbestimmt (b) die Zukunft ist durch Potentiale bestimmt. Diese Antinomie hat sowohl in der Physik (Bohr/Born gegen Bohm) als auch in der Theologie (Schicksal vs. Vorsehung) ihr Pendant. Die linke Seite der Gleichung beschreibt das Vorrücken der Zeit um einen Zeitpunkt (+1 = 1 negvent = 1 negatives Ereignis). Die Negvents sind zufallgesteuert und daher unbestimmt, auch nicht bestimmbar.« (Rella, E-Mail vom 17.12.2017)

Siglenverzeichnis

HW = Georg Wilhelm Friedrich Hegel: Werke in 20 Bänden. Auf der Grundlage der Werke von 1832-1845 neu ediert. Red. E. Moldenhauer und K. M. Michel. Frankfurt/M. 1969-1971; Link

KrV = Immanuel Kant: Kritik der reinen Vernunft (1781, 1787)

Literatur

Joao Andrade e Silva und Georges Lochak: Wellen und Teilchen, Frankfurt 1974 [1968]

Aristoteles: Poetik, Stuttgart 1982, übersetzt und herausgegeben von Manfred Fuhrmann

Louis de Broglie: The Thermodynamics of the isolated particle (or the hidden thermodynamics of particles), Paris 1964; neo-classical-physics

Michel Foucault: Die Ordnung der Dinge, Frankfurt 1974 [1966]

Gottlob Frege: Begriffsschrift, Halle 1879

Karen Gloy, Manuel Bachmann (Hg.): Das Analogiedenken, Freiburg, München 2000

Klaus Heinrich: tertium datur, Frankfurt am Main, Basel 1981

Walter Rella (Rella 1984): Der Schritt in die Analogie
Teil I in Wiener Jahrbuch für Philosophie Band XVI/1984 S. 129-138
Teil II in Wiener Jahrbuch für Philosophie Band XVII/1985 S. 141-158

Walter Rella (Rella 1989): Der Schritt in die Analogie, Vortrag 1989
in: Hegel-Jahrbuch 1989, S. 291-297

Walter Rella (Rella 1999): Beyond Analysis and Synthesis, Wien 1999

Walter Rella (Rella, ZuE): Zeit und Ereignis, unveröffentlichtes Manuskript für raum&zeit

Rainer Schäfer: Die Dialektik und ihre besonderen Formen in Hegels Logik, Hamburg 2001

Claus-Artur Scheier (Scheier 1993): Die Sprache spricht. Heideggers Tautologien.
in: Zt. f. phil. Forsch. 47, 1993, 60-74

Wolfdietrich Schmied-Kowarzik: Hegels Weg zur Dialektik des Geistes
in: Wolfdietrich Schmied-Kowarzik, Heinz Eidam (Hg.): Anfänge bei Hegel, Kassel 2008, 31-50

Hartwig Schmidt: Dialektik der Negativität – Hegel 1, Berlin 2012; Link

Claude Elwood Shannon: A Mathematical Theory of Communication
in: Bell System Technical Journal. Short Hills N.J. 27.1948, (Juli, Oktober), S. 379-423, 623-656; Link

Hao Wang: A logical Journey, from Gödel to Philosophy, Cambride, Massachusetts 1996

2017-18


Navigation eine Ebene zurück
Navigation an Seitenanfang

© tydecks.info 2018