Walter Tydecks

 

Spencer-Brown Gesetze der Form

Reentry
Re-entry

Beitrag für das Philosophische Colloquium der Akademie 55plus Darmstadt am 13. und 27. März 2017 (erweiterte Fassung)

 

Einleitung

George Spencer-Brown (1923-2016) kommt aus England und stammt aus der gleichen Grafschaft Lincolnshire wie Newton. Er hat schon früh parallel und übergreifend an Fragen der Mathematik, Ingenieurstechnik und Psychologie gearbeitet, so im 2. Weltkrieg als Funker, Nachrichtentechniker und Hypno-Schmerztherapeut bei der Royal Navy, 1950-51 am Trinity College Cambridge bei Ludwig Wittgenstein (1889-1951), ab 1960 mit dem Mathematiker und Philosophen Bertrand Russell (1872-1970), auf dem Gebiet der Psychotherapie und Kindererziehung mit Ronald D. Laing (1927-1987), bei dem er an einer Therapie teilnahm und ihn umgekehrt in Mathematik unterrichtete, und daneben war er Schriftsteller, Liedermacher, Schachspieler, Spieleerfinder, Segelflieger (mit zwei Weltrekorden), also eine durchaus ungewöhnliche Persönlichkeit. 1959-61 Chief Logic Designer bei Mullard Equipment, 1963-64 Advisor bei British Rail, 1963-1968 Projekte an Mathematischen Instituten in England, 1968-69 Vollzeitbeschäftigung als Psychotherapeut mit Hypnose-Techniken, später nur noch in Teilzeit. Ab 1976 befristete Professorentätigkeiten an Universitäten in Australien und USA. 1977-78 Beratung für Xerox. In späteren Jahren verarmte er und zog sich zurück, konnte jedoch auf dem Grundstück des Marquess of Bath leben, einem früheren Schüler von ihm. – Gesetze der Form erschien 1969 dank Förderung durch Bertrand Russell. Durch eine positive Rezension von Heinz von Foerster (1911-2002) gewann es eine gewisse Aufmerksamkeit, ist aber dennoch in der Mathematik, Informatik und Philosophie bis heute im Grunde ein Randphänomen geblieben, das kaum jemandem bekannt ist. In Deutschland hat vor allem der Soziologe Niklas Luhmann (1927-1998) die Ideen von Spencer-Brown aufgegriffen und sah in ihnen einen neuen Zugang zur Systemtheorie, der aus seiner Sicht eine Befreiung von der traditionellen Philosophie ermöglicht. Eine erste Einführung in die Logik gibt es bei Wikipedia. Louis Kauffman (* 1945), Uni Chicago, hat den Ansatz weiter ausgebaut. Es gibt Bezüge zur Informatik (von Foerster), Kybernetik (Wiener), Antipsychiatrie (Laing), Anthropologie (Bateson), Psychologie (Piaget) und Kommunikationswissenschaft (Watzlawick), Systemwissenschaft (Luhmann, Baecker), selbstreferenzielle Systeme (Maturana, Varela). – Im persönlichen Umgang soll Spencer-Brown eher schwierig gewesen sein, was wohl damit zusammenhängt, dass er – wie ich meine zurecht – seine Arbeiten auf einem Rang mit denen von Aristoteles und Frege gesehen hat und über die fehlende Anerkennung enttäuscht war.

Entsprechend gibt es nur wenig Sekundärliteratur. Die Texte von Spencer-Brown sind außerordentlich dicht geschrieben. Die Gesetze der Form umfassen im Haupttext 77 Seiten, die mit einigen Vorworten und Eigenkommentaren ergänzt wurden. 1973 fand am Esalen-Institut an der kalifornischen Pazifikkünste eine Tagung statt, an der Spencer-Brown, Bateson, von Foerster u.a. teilnahmen (American University of Masters Conference, abgekürzt AUM-Konferenz). Damit sind die Quellentexte bereits aufgezählt. In Deutschland gibt es in Nachfolge von Luhmann an der anthroposophisch geprägten Privatuniversität Witten/Herdecke im Ruhrgebiet sowie in Heidelberg und München Kreise, die sich regelmäßig mit Spencer-Brown beschäftigen. Als Sekundärliteratur habe ich daher herangezogen von Luhman das komplexe Kapitel über Beobachtung in seinem 1990 erschienenen Werk Wissenschaft der Gesellschaft, in dem er seine Position zu Spencer-Brown darstellt, darauf aufbauend einen von seinem Schüler Dirk Baecker 1993 herausgegebenen Sammelband Kalkül der Form, der unter anderem auch die Rezension von Heinz von Foerster enthält, sowie den 1995 in Wien gehaltenen Vortrag Die neuzeitlichen Wissenschaften und die Phänomenologie, in dem er seine philosophische Position gegenüber Husserl und Spencer-Brown ausführt. Claus-Artur Scheier hat 2016 in Luhmanns Schatten dessen Ansatz mit der neueren französischen Philosophie in Verbindung gebracht und auf eine eigene Weise formalisiert. In Heidelberg erschien 2008 eine kurze Einführung in die Logik von Spencer-Brown durch Felix Lau und in München wesentlich ausführlicher 2004 eine 2009 erweiterte Einführung durch Tatjana Schönwälder-Kuntze, Katrin Wille, Thomas Hölscher. Sie kommen aus dem Umfeld von Matthias Varga von Kibéd (* 1950), der wiederum Schüler des Logikers Ulrich Blau (* 1940) ist. Blau hat Standardbücher über neue Richtungen der Logik verfasst, in denen er jedoch auf Spencer-Brown nicht eingeht. Varga von Kibéd hat sich fernöstlichen Traditionen zugewandt und ist vor allem aktiv geworden in der Gründung, Einführung und Vermarktung neuer Methoden der Systemischen Strukturaufstellung, die sich im weitesten Sinn auf Spencer-Brown berufen. Zusammenfassend kann gesagt werden, dass Spencer-Brown vor allem auf die Theorie selbstreferenzieller Systeme und auf neue Methoden psychotherapeutischer Arbeit Einfluss gewonnen hat, jedoch in der traditionellen Philosophie, Mathematik und Informatik weitgehend ignoriert wird.

Dieser Beitrag ist auch für mich eine erste Annäherung und Einführung und kann nur versuchen, sich weitergehenden philosophischen Fragen zu nähern. Ich vermute jedoch, dass in seinem Ansatz ein Potential enthalten ist, das noch bei weitem nicht erschöpft ist. Einige weiterführende Gedanken finden sich im Beitrag Freiheit des Grundes.

Motive

In seiner ungewöhnlich selbstreflektierten Arbeit betont Spencer-Brown, dass es keine Unterscheidung ohne ein bestimmtes Motiv gibt (»There can be no distinction without motive«, LoF, 1). Das scheint mir der beste Zugang zu diesem ungewöhnlichen Werk zu sein. Gerade für seine Arbeit sind die Motive besonders wichtig, denn im Weiteren ist schrittweise vieles von dem zu verlernen, was bisher in Mathematik und Logik gewohnt war.

Lügner-Paradoxon und negative Selbstbezüglichkeit

Das erste Motiv ist sicher die Beschäftigung mit dem Lügner-Paradox ›Dieser Satz ist falsch‹. Mit ihm waren die logischen Grundlagen der Mathematik und damit aller Naturwissenschaft elementar in Frage gestellt. Das löste eine tiefe Verunsicherung aus, die heute – seit wir uns daran »gewöhnt« haben – kaum mehr vorstellbar ist. Denn zur gleichen Zeit waren umgekehrt mit dem Niedergang aller überlieferten religiösen und mythischen Glaubensvorstellungen die Mathematik und die Naturwissenschaft zur einzigen Kraft geworden, die Identität und Sicherheit zu geben versprach. Wenn nun auch ihre Grundlagen erschüttert werden, droht jeder Halt verloren zu gehen. Robert Musil hat das 1902 wunderbar gestaltet in Die Verwirrungen des Zöglings Törleß. Jeder, der zwischen 1900 und 1980 Mathematik studierte, stieß nahezu zwangsläufig auf die Russellschen Antinomien und wurde in eine Krise gestoßen vergleichbar der skeptizistischen Herausforderung an die Philosophie. Erst der lang anhaltende ökonomische Aufschwung in den westlichen Ländern nach 1945 hat zumindest für eine Weile alle Bedenken und Fragen dieser Art in den Hintergrund drängen können und blanken Pragmatismus und gewöhnlichen Materialismus als neue Werte etabliert. In solchen Zeiten haben die Fragen eines Spencer-Brown vorerst kaum Aussicht auf Resonanz, drohen sie doch die Fragen wieder aufzurühren, die gerade mühsam unter den Teppich gekehrt worden waren.

Das Lügner-Paradoxon ist das berühmteste Beispiel für negative Selbestbezüglichkeit: Der Satz bezieht sich auf sich selbst, und er verneint sich. Das führt zum Paradox: Wenn seine Aussage richtig ist, ist er falsch, und wenn seine Aussage falsch ist, ist er richtig.

Dies Paradox kann in die unterschiedlichsten Formen gebracht werden, was Ulrich Blau bis in die äußersten Verästelungen getrieben hat mit dem Ergebnis, dass es in der gewohnten Logik nichts gibt, was aus diesem Paradox herausführt.

Der Satz ist keineswegs nur eine logische Spielerei, die jeder Jugendliche irgendwann im Alter von 12 bis 16 Jahren durchmacht und damit die IV. Stufe des kognitiven Denkens (das formale Denken) im Sinne von Jean Piaget erreicht, sondern ist in der ursprünglichen Formulierung »ein Kreter sagt, dass alle Kreter lügen« von mythologischer Bedeutung, als die Kreter mit der Angst fertig werden wollten, dass sie auf der Insel Kreta Gott getötet haben könnten. In der Philosophie hat er bei Hegel systematische Bedeutung erhalten und gilt als das entscheidende Merkmal der dialektischen Methode. Mit dem Hinweis auf diesen Satz wird die Kritk an der Dialektik durch Popper und andere zurückgewiesen.

Bertrand Russell war anfangs Hegelianer, konnte sich aber mit den spekulativen Sätzen Hegels über den Widerspruch nicht zufrieden geben. Für ihn musste es auch eine formale Lösung geben, die den Anforderungen der traditionellen Logik standhält. Das ist ihm mit dem Verbot selbstbezüglicher Sätze nur negativ gelungen, und er war daher begeistert, als Spencer-Brown eine völlig neue, formale Lösung präsentieren konnte.

Imaginäre Zahlen

Spencer-Brown suchte einen Ausweg nach dem Vorbild der imaginären Zahlen. Die imaginären Zahlen sind innerhalb der Mathematik ein eigenartiger, geheimnisvoller Fremdkörper. Schon der Name imaginär ist völlig untypisch für das übliche mathematische Denken. Sind diese Zahlen imaginär wie ein bloßer Traum, oder sind sie bloße Bilder, virtuelle Objekte des Denkens, entsprungen aus der Imagination (Einbildungskraft, Phantasie) der Seele? Was zeichnet eine mathematische Imago gegenüber einer psychologischen Imago aus? Fragen dieser Art haben Spencer-Brown nach seiner Therapie bei Laing sicher sehr bewegt.

Der Ausdruck imaginäre Zahl geht auf Descartes und Euler zurück. Für Mathematiker ist es ein in sich widerspruchsfreier Formalismus, den Zahlenraum zu erweitern, und für Ingenieure und Physiker ist es ein überaus hilfreiches Werkzeug, komplexe Gleichungen zu vereinfachen, auch wenn sie in der Regel kaum die Frage beantworten können, warum das mit den imaginären Zahlen möglich ist. Als Nachrichtentechniker war Spencer-Brown zweifellos mit dieser Bedeutung vertraut und hatte gelernt, wie Ingenieure und Naturwissenschaftler einfach mit solchen Zahlen rechnen, weil das gut geht und sich bewährt, ohne nach den mathematischen Grundlagen zu fragen.

Im Vorwort zur ersten amerikanischen Ausgabe von Laws of Form hat er 1972 eine verblüffende Beziehung der imaginären Zahlen zur Frage der Russellschen Antinomie gesehen. Russell und Whitehead wollten die drohende Antinomie in der Typen-Theorie mit dem Verbot selbstbezüglicher Elemente ausschließen. Das hielt Spencer-Brown für einen Fehler. »Mistakenly, as it now turns out.« (LoF, ix) Spencer-Brown berichtet, dass er Russell 1967 getroffen und ihm gezeigt hat, wie er ohne diesen Ausschluss arbeiten kann. »The Theory was, he said, the most arbitrary thing he and Whitehead had ever had to do, not really a theory but a stopgap, and he was glad to have lived long enough to see the matter resolved.« (LoF, x)

Um innerhalb der Arithmetik eine negative Selbstbezüglichkeit zu definieren, ist eine Gleichung aufzustellen, in der eine Variable x als ihr eigener Kehrwert auftritt und mit dem Minus-Zeichen negiert wird:

Gleichung (1)

Mit dieser Gleichung ist die negative Selbstbezüglichkeit formalisiert: Der Kehrwert steht für den Selbstbezug, das Minuszeichen für die Negation.

Diese Gleichung sieht auf den ersten Blick ebenso harmlos aus wie wenn jemand zum ersten Mal den Satz hört ›dieser Satz ist falsch‹. Jeder hält das im ersten Moment für eine gewöhnliche Aussage über einen anderen Satz (einer sagt, ›der Himmmel ist grün‹ und ein anderer antwortet darauf ›dieser Satz ist falsch‹), bis dessen innere Sprengkraft durchschaut wird, wenn er sich auf sich selbst bezieht. So sieht auch Formel (1) auf den ersten Blick nicht ungewöhnlich aus. Das in ihr enthaltene Paradox wird sichtbar, wenn für x der Wert 1 oder der Wert −1 eingesetzt wird:

Gleichung (2)

1 und −1 sind die einfachst-möglichen Zahlen, und sie zeigen, dass es für diese Formel keine natürliche Zahl als Lösung gibt. Mit ihr hat Spencer-Brown das Paradox der negativen Selbstbezüglichkeit innerhalb der Arithmetik nachbildet.

Whitehead und Russell hatten nur den Ausweg gesehen, Fragen dieser Art mit dem dritten »Wahrheitswert« ‘bedeutungslos‘ (meaningless) zu versehen und auszuschließen. Demgegenüber kann eine Lösung mit den imaginären Zahlen gefunden werden. Die imaginären Zahlen stehen wie die y-Achse senkrecht zur Zahlenachse. Ihre Einheit ist die neu eingeführte Zahl i. Sowohl i wie auch −i sind Lösungen von Gleichung (1).

Gleichung (3)

Darum geht es Spencer-Brown. Er fragt sich, ob nach dem Vorbild der imaginären Zahlen in der Arithmetik auch imaginäre Zahlen in der Logik eingeführt werden können mit weitreichenden Folgen für das logische Denken.

»What we do in Chapter 11 is extend the concept of Boolean algebras, which means that a valid argument may contain not just three classes of statement, but four: true, false, meaningless, and imaginary.« (Lof, xi)

Die traditionelle Logik ist zugleich zu einfach und zu komplex

Diese Beispiele zeigen bereits den neuen Zugang mit der Logik bei Spencer-Brown. Er war mit der überlieferten Logik völlig unzufrieden. Die ist für ihn banal, um nicht zu sagen kindisch, und zugleich unnötig kompliziert.

(1) Die traditionelle Logik ist einerseits zu einfach, geradezu kindisch.

Wer einmal Lehrbücher der Logik gelesen hat mit ihren Beispielen, versteht was Spencer-Brown meint. Eine typische logische Aufgabe lautet: »Welche der folgenden Behauptungen ist wahr: Einige Äpfel sind Bananen. Alle Äpfel sind Bananen. Einige Bananen sind keine Äpfel. Manche Bananen sind Äpfel.« Die richtige Lösung ist versteckt in dem Satz »Einige Bananen sind keine Äpfel.« Darauf kommt niemand gleich, weil das niemand im alltäglichen Leben so sagen würde, denn jeder würde spontan diesen Satz so verstehen, dass er implizit auch die falsche Aussage enthält, dass es einige Bananen gibt, die Äpfel sind. Aber formal ist dieser Satz richtig, und das soll eine Aufgabe wie diese zeigen. Sie soll ein abstraktes Verständnis für Logik lehren, das unabhängig ist von einem inhaltlichen Vorverständnis und Sprachgefühl.

Ist Logik nichts weiter als die Suche nach witzigen Logeleien, über die jeder schmunzeln muss? Das kann beliebig ausgebaut werden: Ist ein Satz wie »die Zahl 2 ist gelb« wahr oder falsch, und was kann aus diesem Satz gefolgert werden? Was ist von dem Schluss zu halten: Wenn John keine Kinder hat, ist sowohl die Aussage wahr, ›Alle Kinder von John schlafen‹ wie auch die konträre Aussage ›Keins von Johns Kindern schläft‘. Ist damit der Satz des Widerspruchs widerlegt? Die analytische Philosophie denkt sich nach diesem Muster bis heute immer neue Beispiele aus und schlägt sich seit Jahrzehnten mit Fragen dieser Art herum, obwohl bereits Herbert Marcuse diese Art zu denken in den 1960ern verspottet hatte (Der eindimensionale Mensch) und darin im Grunde eine bestimmte Art der Erziehung zur Dummheit sieht, die leider auch an den Universitäten nahezu alle philosophischen Fakultäten dominiert, an denen Philosophen dieser Richtung bevorzugt eingestellt werden. Offenbar sollen in großem Stil an den Universitäten Menschen und vor allem Lehrer ausgebildet werden, die mit dieser Art von Logik in den Schulen Unterricht erteilen können.

Aufgrund seiner Ausbildung in Logik hatte Spencer-Brown eine Stelle bekommen, um Schaltkreise zu programmieren, und merkte schnell:

»The logic questions in university degree papers were childishly easy compared with the questions I had to answer, and answer rightly, in engineering. We had to devise machinery which not only involved translation into logic sentences with as many as two hundred variables and a thousand logical constants--AND's, OR's, IMPLIES, etc.--not only had to do this, but also had to do them in a way that would be as simple as possible to make them economically possible to construct--and furthermore, since in many cases lives depended upon our getting it right, we had to be sure that we did get it right.« (AUM, Session One)

Im Ergebnis konnten er und die anderen Entwickler sich zwar allgemein auf ihr logisches Denkvermögen verlassen, programmierten aber drauf los und gaben es sehr schnell auf, ihre Programme systematisch gemäß den Regeln der gelernten Logik zu entwerfen und zu überprüfen, sondern waren zufrieden als sie sahen, dass die von ihnen programmierten Schaltkreise funktionieren, ohne das logisch erklären oder beweisen zu können. So geht es nach meiner Erfahrung den meisten Programmierern, und es hinterlässt dennoch ein Unbehagen, dass es eine andere Art von Logik geben müsste, die der Praxis des Programmierens näher kommt und hilfreicher ist. (Wer hat sich als Programmierer nicht mit Methoden wie z.B. dem logisch aufgebauten Programmablaufplan herumgeschlagen und es irgendwann fallen gelassen, weil der Aufwand, Programmerweiterungen in Methoden dieser Art nachzubilden größer ist als die Programmierung und das Austesten. Bei komplexen Programmen sind logische Methoden dieser Art komplizierter als der Programmtext selbst, und in der Realität hat sich für Dokumentationen ein übersichtlicher Pseudocode durchgesetzt, der die Algorithmen in einer einfach zu lesenden Sprache darstellt.)

(2) Zugleich ist die Logik viel zu komplex.

Fast gebetsmühlenartig wird am Anfang jeder Logik- und Mathematik-Vorlesung ein großer Aufwand mit der Einführung unterschiedlichster Zeichen getrieben, obwohl die jeder intuitiv versteht. Das sind eigene Zeichen für Konstanten, Variablen, logische Operationen wie ∧, ∨, ¬ und Quantoren wie ∀ und ∃. Die unterschiedlichen Professoren und Lehrbücher überbieten einander darin, den erforderlichen Begriffsapparat so abstrakt wie möglich einzuführen. Ein Beispiel ist die online verfügbare Vorlesung Endliche Modelltheorie von Geschke:

»1.1. Strukturen. Ein Vokabular symbol ist eine endliche Menge bestehend aus Relationssymbolen P, Q, R, …, Funktionssymbolen f, g, h, … und Konstantensymbolen c, d, … Jedes Relations- und Funktionssymbol trägt eine natürliche Zahl ≥ 1, seine Stelligkeit.
   Fixiere ein Vokabular symbol. Eine Struktur symbol für symbol (eine symbol-Struktur) ist eine Menge A zusammen mit
   (S1) Relationen symbolsymbol ⊆ An für jedes n-stellige Relationssymbol symbolsymbol,
   (S2) Funktionen symbolsymbol: Am → A für jedes m-stellige Funktionssymbol symbolsymbol und
   (S3) Konstanten symbolsymbol ∈ A für jedes Konstantensymbol symbolsymbol.
   Oft identifiziert man eine Struktur symbol mit ihrer unterliegenden Menge A, schreibt also A anstatt symbol.« (Geschke, S. 1)

Wer Mathematik und Logik studiert hat, versteht, warum auf solche Weise eine Vorlesung eingeleitet wird, und doch hat jeder das Gefühl, dass an dieser Art an die Sache heranzugehen etwas nicht stimmen kann. Am Ende wird versucht, alles deduktiv aus einer einzigen Lehre abzuleiten. Das gelingt nicht. Stattdessen scheint sich heute die Ansicht durchgesetzt zu haben, dass am Anfang mehr oder weniger gleichberechtigt die Mengenlehre, die Modelltheorie und die Theorie formaler Sprachen stehen. Die Mengenlehre kommt nicht aus ohne eine formale Sprache, die formale Sprache nutzt die Mengenlehre, jede Lehre kann als ein Modell verstanden werden, das aber wiederum wie an diesem Beispiel zu sehen einer formalen Sprache und mengentheoretischer Operationen bedarf. Im Ergebnis entsteht der Eindruck, dass es nicht gelungen ist, die unterschiedlichen Lehren auf ihre einfachsten Elemente zurückzuführen, und die große Abstraktheit und der komplexe technische Apparat im Grunde eine Flucht sind, um dieser Frage auszuweichen.

Für Spencer-Brown ist diese ganze Rchtung ein Irrweg. Seine erste Grundentscheidung ist daher, eine wesentliche Reduktion vorzunehmen und damit einen Bereich zu eröffnen, der als Proto-Logik oder als Proto-Mathematik bezeichnet werden kann. Er versteht seine Herangehensweise als »perfect continence« (LoF, 1), eine Mäßigkeit und Selbstkontrolle bei Klärung der logischen Grundlagen.

Logik und Zeit

Die klassische Logik gilt unabhängig von der Zeit. Mit ihr werden nur Aussagen getroffen und verknüpft, die für sich zeitlos gültig sind. Eine Tatsache oder eine Beobachtung bleibt immer bestehen, selbst bei Sätzen, die sich auf einen bestimmten Zeitpunkt beziehen. Ein Satz wie ›Am 24.2.2017 sind in Bensheim die ersten Krokusse des Jahres 2017 aufgeblüht.‹ gilt auch dann noch, wenn die Krokusse längst wieder verblüht sind. Er gilt selbst dann, wenn er sich als eine Täuschung erweist, denn dieser Satz ist für sich genommen eine Gegebenheit meines Denkens. So hatte Wittgenstein 1921 den Tractatus logico-philosophicus begründet: »1 Die Welt ist alles, was der Fall ist. [...] 1.13 Die Tatsachen im logischen Raum sind die Welt.« Für ihn ist die Welt die Gesamtheit aller Protokollsätze. Spencer-Brown hatte 1950-51 miterlebt, wie Wittgenstein über diesen Ansatz hinausgehen wollte. Es ist zu wenig, die Logik auf Sätzen dieser Art und ihren Verknüpfungen zu begründen.

Nun ist die Logik dabei nicht stehen geblieben. So wurde 1954 von Paul Lorenzen (1915-1994) die operative Modallogik entwickelt, mit der die Unterschiede von Möglichkeit, Wirklichkeit und Notwendigkeit logisch erfasst und formalisiert werden sollen. Der technische Apparat ist so weit wie möglich angepasst an die traditionelle Logik. Diese Richtung hat in Verbindung mit der Quantenlogik einen gewissen Aufschwung genommen. – Auch in der Modallogik fehlt noch die Berücksichtigung der Zeit. Das wurde zur gleichen Zeit in den 1950ern mit einer Temporalen Logik zu lösen versucht. Wer sich die bisher vorliegenden Ergebnisse sowohl der Modallogik wie der temporalen Logik ansieht, wird verstehen, warum das nicht das ist, was Spencer-Brown suchte. Er ging auf einem ganz anderen Weg von der praktischen Erfahrung aus, dass beim Programmieren das Gleichheitszeichen kontextabhängig als Zuweisung oder als Übereinstimmung verstanden wird.

Auf diesen Aspekt hat Elena Esposito hingewiesen (Esposito in Baecker Kalkül der Form, 108-110). Bei Computer-Anweisungen ist es weder ein Widerspruch noch ein Paradox, wenn geschrieben wird:
(4a)    i = i + 1
(4b)    a = f(a)

Bei beiden Zuweisungen liegt das Ergebnis auf der linken Seite zeitlich später als die Rechenoperation auf der rechten Seite. Die Zuweisung ›i = i + 1‹ ist eine der am häufigsten verwendeten Programmierzeilen, wenn in einer Schleife im Verlaufe einer zeitlichen Wiederholung mitgezählt wird, wie oft ein identischer Vorgang durchlaufen wird. Und ebenso ist die Anweisung ›a = f(a)‹ eine zeitliche Operation, die den aktuellen Wert einer Variable a nimmt, ihn mit einer Funktion f(a) neu berechnet und anschließend das Ergebnis der Variable a neu zuweist. Das a auf der linken Seite hat daher in der Regel einen anderen Wert als das a auf der rechten Seite. Wenn z.B. in einer Anlagenbuchhaltung dem Wert a einer Anlage mit der Funktion f ein neuer Wert zugewiesen wird, verändert sich dadurch der Inhalt von a. Auf der rechten Seite steht das »alte a«, auf der linken Seite das mit einer Funktion f berechnete »neue a«.

Aufzuklären, was hier beim Programmieren geschieht, ist für mich eins der stärksten Motive von Spencer-Brown. Wenn seine Arbeiten bisher von der Informatik nahezu vollständig ignoriert werden, zeigt das für mich nur, in welchem Ausmaß die Informatik unfähig ist, gegenüber ihrem eigenen Tun so etwas wie eine transzendentale Wende zu finden, wie es Kant innerhalb der Philosophie geleistet hatte, und wie es nach meinem Eindruck Spencer-Brown für die Programmierung suchte. Gerade für einen Mathematiker und Informatiker ist das Buch von Spencer-Brown nicht einfach zu lesen. Er ist zwar besser vertraut als andere mit formalen Überlegungen dieser Art, muss sich aber von festgefahrenen Vorurteilen befreien. Er muss – wie Spencer-Brown sagte – viel verlernen, und das Verlernen schrittweise angehen, um nicht bereits beim ersten Schritt in zu große Verwirrung zu geraten.

Spencer-Brown antwortete auf eine Frage von John Lilly (1915-2001) (Neurophysiologe, Delfin-Forschung, Drogen wie LSD, Einfluss auf New Age):

»LILLY: Have you formulated or recommended an order of unlearning?
SPENCER BROWN: I can't remember having done so. I think that, having considered the question, the order of unlearning is different for each person, because what we unlearn first is what we learned last. I guess that's the order of unlearning. If you dig too deep too soon you will have a catastrophe; because if you unlearn something really important, in the sense of deeply imported in you, without first unlearning the more superficial importation, then you undermine the whole structure of your personality, which will collapse. Therefore, you proceed by stages, the last learned is the first unlearned, and this way you could proceed safely.« (AUM, first session)

Der Einfluss des Beobachters

Die transzendentale Wende von Kant ist eine neue Art von Selbstbeobachtung, mit der das Denken sein eigenes Tun untersucht. Kant war sich bewusst, dass er mit ihr eine Wende nachvollzog, die sich bereits in der Astronomie mit der kopernikanischen Wende ereignet hatte, als bewusst geworden war, in welcher Weise das Weltbild vom jeweiligen Standort des Beobachters abhängig ist. Die Welt stellt sich anders dar, wenn sie in Gedanken nicht mehr von der Erde aus, sondern von der Sonne aus gesehen wird. Sachlich bleibt alles gleich, aber die Bewegungen der Sonne, Planeten und des Mondes sind mathematisch wesentlich einfacher in Bewegungsgleichungen zu bringen. An ihnen werden Muster erkennbar (die Keplerschen Gesetze), die mit bloßem Augenschein von der Erde aus nicht zu sehen sind.

Bei Einstein spielt die Geschwindigkeit, mit der sich ein Beobachter bewegt, eine Rolle, wie er andere Bewegungen wahrnimmt. In der Quantenmechanik wird befürchtet, dass nichts so gemessen werden kann, wie es ist, da es durch die Messung verändert wird, also der Messvorgang in die Messung eingreift.

Von noch größerer Bedeutung ist der Beobachter für die Psychologie und Soziologie, und nicht ohne Grund ist vor allem dort die Lehre von Spencer-Brown aufgegriffen worden. Kant hielt eine wissenschaftliche Psychologie für unmöglich. Für ihn war schon fraglich, ob die Chemie jemals eine Wissenschaft mit mathematischen Methoden werden kann, aber für die Psychologie hielt er das für ganz ausgeschlossen. Jedes denkende Wesen wird merken, wenn es beobachtet wird, und entsprechend reagieren. Daher kann der Beobachter nie sicher sein, ob der andere nur deshalb so ist, wie er ist, weil er sich auf ihn einstellt. Die Psychoanalyse berücksichtigt das teilweise, seit sie mit Freud das Phänomen der Übertragung kennt, wenn ein Patient sich unbemerkt den Erwartungen des Analytikers anpasst und dieser sich umgekehrt unbewusst so verhält, wie es der Patient von ihm erwartet (Gegenübertragung).

»Aber auch nicht einmal als systematische Zergliederungskunst, oder Experimentallehre, kann sie (die Psychologie, t.) der Chemie jemals nahe kommen, weil sich in ihr das Mannigfaltige der inneren Beobachtung nur durch bloße Gedankenteilung von einander absondern, nicht aber abgesondert auf behalten und beliebig wiederum verknüpfen, noch weniger aber ein anderes denkendes Subjekt sich unseren Versuchen der Absicht angemessen von uns unterwerfen läßt, und selbst die Beobachtung an sich schon den Zustand des beobachteten Gegenstandes alteriert und verstellt. Sie kann daher niemals etwas mehr als eine historische, und, als solche, so viel möglich systematische Naturlehre des inneren Sinnes, d.i. eine Naturbeschreibung der Seele, aber nicht Seelenwissenschaft, ja nicht einmal psychologische Experimentallehre werden.« (Kant Metaphysische Anfangsgründe der Naturwissenschaften, Vorrede, MAN, AA 04:471.22-32)

Hat sich das für Spencer-Brown in seiner eigenen psychotherapeutischen Erfahrung bestätigt? Lassen sich anders als Kant glaubt im Verhalten des Beobachters und des Beobachteten in der psychologischen Praxis Muster erkennen, die über die jeweilige Persönlichkeit hinausgehen? Mir ist nicht bekannt, ob und wie intensiv sich Spencer-Brown mit den Lehren etwa von Husserl, Heidegger, Sartre und anderen beschäftigt hat, die dieser Frage nachgegangen sind. Luhmann und Scheier stellen die Logik von Spencer-Brown in diesen Kontext und versuchen ihn von dort aus zu verstehen.

Hier erhält die Frage nach dem Re-entry eine neue Bedeutung. In der psychologischen und soziologischen Praxis ist Re-entry nicht einfach eine möglicherweise rein mechanische Resonanz, Feedback oder eine wie in selbst-referentiellen Systemen nahezu automatisch ablaufende Rückkoppelung, sondern der Beobachtete bekommt vom Beobachter auf sein Verhalten eine Rückmeldung und reagiert darauf.

Prozess und Resultat

Wenn Spencer-Brown von seiner Berufserfahrung her das pragmatische Tun hervorhebt, stellt er damit das überlieferte Verhältnis von Prozess und Resultat in Frage. Da die traditionelle Logik nur zeitlose Aussagen kennt, die immer gelten und sich nie ändern, hat sie nicht die Logik von Prozessen untersucht. Für Aristoteles waren Logik und Physik klar getrennt. Die zeitlosen Aussagen hat er systematisch in der Kategorienlehre untersucht, wogegen es in der Physk als der Lehre von den vergänglichen Dingen und Wesen, die Werden und Vergehen unterworfen sind, zu Zeit, Bewegung und Veränderung kommt. Dort bildete er mit energeia und entelecheia neue Begriffe, die bewusst den Rahmen der Kategorienlehre verlassen und einem neuen logischen Verständnis nahekommen. (Sie sind seither als Energie und Entelechie zu Grundlagenbegriffen in der Physik und Biologie geworden. Heidegger hatte sie als Existenzialien bezeichnet, es aber für unmöglich gehalten, für sie eine der traditionellen Logik vergleichbare Formalisierung zu finden.)

Spencer-Brown will die Logik begründen auf Begriffen, in denen Prozess und Resultat noch nicht klar getrennt sind. Dies Anliegen teilt er mit Hegel, der systematisch solche Begriffe benutzt hat. ‘Anfang’: Das kann sowohl der Vorgang des Anfangens wie das Resultat sein, das angefangen wurde. Ähnlich Bestimmung, Entwicklung, Messung usf: Messung kann der Vorgang des Messens sein, wie der Messwert, der gemessen wurde. Bestimmung kann der Vorgang des Bestimmens sein wie das Ergebnis, dass etwas so und nicht anders bestimmt ist.

Spencer-Brown gründet seine Logik mit Distinction (Unterscheidung) und Indication (Anzeige, Hinweis) auf ähnliche Begriffe. Das kann sowohl der Vorgang des Bezeichnens und Unterscheidens sein wie auch das Ergebnis, wenn eine Unterscheidung getroffen ist und eine Bezeichnung gefunden wurde. Es ist der Vorgang, etwas zu unterscheiden, und im Ergebnis das Zeichen (mark) und der Wert (value), der dem Etwas mit der Unterscheidung verliehen wird.

Wenn mit Begriffen begonnen wird, bei denen die Unterscheidung in Prozess und Resultat bewusst offen gehalten wird, dann muss es innerhalb der Logik einen klar erkennbaren und nachvollziehbaren Weg geben, dort Zeit und Bewegung einzuführen und diese Offenheit in ihre beiden Bestandteile auseinander zu legen. Dies Motiv sehe ich besonders in der Unterscheidung der primären Arithmetik und primären Algebra wie in der Einführung des Re-entry und der mit dem Re-entry gegebenen Zeit.

Der gordische Knoten

Ist es möglich, alle diese Fragen gemeinsam wie in einem gordischen Knoten zu lösen? Das scheint mir letztlich das Motiv von Spencer-Brown zu sein.

Spencer-Brown stellt als Motto einen Vers aus dem Daodejing von Lao-Tse voran. Lao-Tse beginnt seine Schrift mit vier Versen, von denen Spencer-Brown den dritten Vers ausgewählt hat.

wu ming tian di zhi shi
Wu ming tian di zhi shi
Nichts/Ohne Name Himmel Erde von Anfang

»Da das Chinesische eine isolierende und keine flektierende Sprache ist, gehört zu dem chinesischen Satz eine Ambiguität, die in den westlichen Sprachen durch die Entscheidung für eine Wortart verloren geht. Die Ambiguität hängt an der grammatischen Rolle des ersten Wortes wu: nicht, ohne, Nichts.« (SWH, 65)

Der Vers kann daher in zweierlei Weise übersetzt werden:

Ohne Name ist der Anfang des Himmels und der Erde
'Nichts' ist Name des Anfangs von Himmel und Erde.

Alle vier Verse lauten im Zusammenhang:

Der Weg, der wirklich Weg ist, ist ein anderer als der unwandelbare Weg.
Die Namen, die wirklich Namen sind, sind andere als unwandelbare Namen.
Namenlos/Nichts ist der Anfang von Himmel und Erde.
Der Name ist die Mutter der zehntausend Dinge. (zitiert SWH, 65)

»Distinction is Perfect Continence«

Irgenwo muss auch Spencer-Brown in seiner Logik mit nicht weiter hinterfragbaren Grundbegriffen anfangen. Das sind für ihn Indication (Hinweis) und Distinction (Unterscheidung).

»We take as given the idea of distinction and the idea of indication. We take, therefore, the form of distinction for the form.« (LoF, 1)

Was damit gemeint ist, zeigen die einfachsten Rechenaufgaben. In einem Satz wie ›2 + 3 = 5‹ wird gerechnet mit Operanden, hier den Zahlen 2, 3 und 5, sowie mit Operationszeichen, hier + und =. Das lässt sich verallgemeinern auf die üblichen Sätze wie ›S ist p›, wenn S und p als Operanden und die Copula ‘ist’ als Operator angesehen werden.

Um so rechnen zu können, müssen bereits die Operanden unterschieden worden sein, in diesem Beispiel sowohl die beiden Zahlen 2 und 3 voneinander, wie auch die Operanden von den Operatoren, d.h. in diesem Beispiel die Zahlen 2, 3 und 5 von den Operationszeichen + und =. Daher liegt nahe, die Operation des Unterscheidens noch vor dem Rechnen mit Operationen und Operanden anzusetzen.

Spencer-Brown wählt als elementares Zeichen den Haken (Winkel, cross):

    spencer brown call

Dies Zeichen hat eine vielfache Bedeutung:

– Ausführung einer elementaren Operation (draw a distinction)

– Hervorheben eines Inneren (mark)

– Auszeichnen eines inneren Bereichs (marked space)

– Ziehen einer Grenze (boundary with separate sides)

– Unterscheiden eines Grundes vom Zeichen, das in den Grund gezeichnet ist (ground, medium)

– Benennen der Grenze durch das Zeichen spencer brown call (indication, call)

Mit der letztgenannten Bedeutung wird klar, dass das Zeichen selbst-bezüglich ist: Es zeigt sowohl anschaulich den Unterschied zwischen einem Innen und einem Außen und zugleich ist dies Zeichen der Name für diesen Unterschied. Dadurch wird dem Innen ein Wert verliehen.

Das Verblüffende ist nun, dass ausschließlich mit diesem Zeichen zwei Operationen erfolgen können, auf denen die vollständige weitere Logik aufbaut: Wiederholung, Verschachtelung:

    spencer brown recalling           spencer brown recrossing

Alle weiteren Zeichen werden aus diesen beiden Zeichen zusammengesetzt, so wie in der euklidischen Geometrie alle Konstruktionen aus Geraden und Kreisen hervorgehen.

Für diese beiden Operationen setzt Spencer-Brown zwei Axiome:

»Axiom 1: The law of calling.
The value of a call made again is the value of the call.« (LoF, 1)

spencer brown recalling   =   spencer brown call    

lies: Wird etwas zweimal bei seinem Namen genannt, ändert sich der Name dadurch nicht.

»Axiom 2: The law of crossing
The value of crossing made again is not the value of the crossing« (LoF, 2)

spencer brown recrossing  =     .

lies: Wird zweimal die Grenze gewechselt, dann wird der Anfangszustand wiederhergestellt. Die Wiederholung des Crossing hat einen anderen Wert als das einfache Crossing. Das liegt daran, dass zwischendurch eine Umkehr erfolgt. Beim Crossing wird die Seite gewechselt, beim Recrossing wird diese Aktion rückgängig gemacht.

Die Einführung dieser beiden Axiome wird vielleicht verständlicher, wenn daran erinnert wird, dass Spencer-Brown von Schaltkreisen ausging. (1) Wird in einem Schaltkreis auf einer Verbindung ein Schalter geöffnet, dann ist die Strecke unterbrochen und wechselt vom Zustand ‘an’ in den Zustand ‘aus’. Werden mehrere Schalter geöffnet, bleibt der Zustand ‘aus’ erhalten. Es ist das gleiche, einen Schalter oder mehrere Schalter zu öffnen. (2) Wird ein Schalter erst geöffnet und dann wieder geschlossen, ist der Ursprungszustand ‘an’ wieder hergestellt.

spencer brown schalter

In Axiom 2 ist implizit bereits das Medium eingeführt: Wird das Recrossing als Reflexion verstanden, mit der eine Grenzüberschreitung im wörtlichen Sinn reflektiert (zurückgeworfen) wird, dann entsteht mit Axiom 2 als Ergebnis der leere Raum. Dies ist nicht mehr einfach das Nichts: Es ist der Raum, der durch ein Vergehen entstanden ist. (Vergleiche hierzu die Ausführungen von Hegel: »Das Resultat ist das Verschwundensein, aber nicht als Nichts.«; HW 5.113) Die Grenze wurde zuerst gezeichnet. Das ist ein Werden. Sodann wurde das Werden durch ein Vergehen rückgängig gemacht. Übrig bleibt der Grund, auf dem diese Bewegung von Werden und Vergehen stattgefunden hat.

In den beiden Operationen der Wiederholung (Recalling) und der Rückkehr zurück über die Grenze (Recrossing) sehe ich formal die beiden von Hegel unterschiedenen Bewegungen der Kontinuation und der Umkehr, die für mich zentral sind für das Verständnis sowohl der absoluten Indifferenz, wie des Übergangs von der Seinslogik zur Wesenslogik und dort des Begriffs der Idee (siehe hierzu den Beitrag Idee des höheren Widerspruchs).

Aber wie soll das Zeichen spencer brown call im Deutschen benannt werden? Spencer-Brown führt es ein als »crossing the boundary« und als »calling« (LoF, 1), und nennt es nach dem ersten Aufzeichnen ein »mark« (LoF, 3). In deutschen Übersetzungen wird bisweilen das englische Wort ‘cross’ beibehalten oder ein neutraler Ausdruck gewählt wie ‘Token’, ‘Markierung’ oder ‘Zeichen’. Die wörtliche deutsche Übersetzung ‘Kreuz’ wird meist vermieden, da es sich äußerlich nicht um ein Kreuz kreuzprodukt, sondern um einen Winkel handelt. Ein Winkel wird jedoch meist nach rechts geöffnet und mit einer Öffnung von weniger als 90° vorgestellt, so auch das Zeichen für Winkel in der Auszeichnungssprache HTML: ∠. Möglich ist auch das Wort ‘Haken’. Das alles trifft jedoch nicht die von Spencer-Brown gemeinte Doppelbedeutung eines Zeichens und einer Bewegung (cross, crossing, in deutscher Übersetzung: Kreuz und Kreuzen). Auch das Wort ‘Quere’ ist missverständlich, denn unter einer Quere ist eher ein Zeichen wie \ oder / zu verstehen, das quer verläuft, und mit Überqueren ist oft eine andere Art von Bewegung gemeint, etwa das diagonale Überqueren eines leeren Platzes, eines Flusses, eventuell auch eine Abkürzung, wenn ein Rechteck durchquert wird. Trotz Bedenken ist für mich in Gesprächen und bei Demonstrationen an einer Tafel der Name ‘Haken’ am eingängigsten, weil er am besten die äußere Gestalt trifft.

Für das andere Zeichen, das nur aus einer Leere besteht, hat Spencer-Brown lange nach einem geeigneten Namen gesucht. Erst in der 2. Auflage der deutschen Übersetzung von 1999 führt er den Ausdruck ock ein.

»Kurz nachdem es das erstemal veröffentlicht wurde, erhielt ich einen Telephonanruf von einem Mächen namens Juliet, die, während sie ihre Begeisterung über das, was ich getan hatte, ausdrückte, ebenso ihrer Frustration Ausdruck verlieh, nicht den leeren Raum über das Telephon sprechen zu können. [...] Sie hatte völlig recht, und ich erfand in der Folge das Wort Ock (vom Indoeuropäischen okw = das Auge), symbolisiert durch einen umgekehrten Kleinbuchstaben ock um in einer sprechbaren Form die universelle rezessive Konstante zu kennzeichnen, die alle Systeme gemeinsam haben. Gewöhnliche Zahlensysteme haben natürlich zwei Ocks, null für die Addition und die Einheit für die Multiplikation. [...] In diesem Buch, in dem seine wahre Natur erstmals klargemacht wurde, war es aber wichtig, das Ock namenlos und leer zu lassen, weil es das nächste war, an das ich gelangen konnte, um hervorzuheben, daß es überhaupt nichts ist, nicht einmal leer. Seine Erfindung war mächtiger als die Erfindung der Null, und sandte Schockwellen durch die gesamte mathematische Gemeinde, die selbst jetzt noch nicht abgeklungen sind.« (Brown, 1999, xvf, zitiert bei Rathgeb, 118)

In der Sekundärliteratur zu Spencer-Brown ist das bis heute außer bei Rathgeb nicht aufgenommen worden.

Zusammenfassung: Das Anliegen dieser ersten Schritte nennt Spencer-Brown:

»Definition
   Distinction is perfect continence.« (LoF, 1)

Was ist mit dem ungewöhnlichen Wort continence gemeint: SWH erläutern: (a) Es kann Enthaltsamkeit, Mäßigkeit und Selbstkontrolle bedeuten (kontinent als Gegenteil von inkontinent). In dieser Bedeutung wird mit continence gesichert, dass etwas nicht auseinanderläuft und sich zerstreut, verfranst und die eigene Identität verliert. (b) Und es kann Zusammenhalt bedeuten im Sinne des Kontinuum, wodurch zum Beispiel in der Geometrie die Unendlichkeit von Punkten auf einer Linie zusammengehalten wird. (SWH, 70) Das scheint mir das Anliegen von Spencer-Brown sehr gut zu treffen.

Rechnen in einer Proto-Arithmetik und Proto-Algebra

Spencer-Brown hat in der Session Two am 19.3.1973 auf der AUM-Konferenz in Esalen sein Verständnis von Arithmetik und Algebra dargelegt und zur Diskussion gestellt.

–    Eine Arithmetik wird demonstriert an physischen Gegenständen. Schon im Kindergarten oder der Grundschule wird sie an Beispielen gelernt wie 3 Äpfel und 2 Äpfel sind 5 Äpfel. Jeder kann die beiden kleineren Mengen von 2 und von 3 Äpfeln nehmen, sie zusammenlegen und nachzählen, dass es jetzt 5 Äpfel sind. Beispiele dieser Art sind so intuitiv und "schlagend", dass kaum jemand bemerkt, was implizit vorausgesetzt und unter der Hand mitgelernt wird. Die einzelnen Äpfel bleiben selbstständig und verändern sich nicht durch das Zählen. Würden sie wie bei einem chemischen Prozess zwischendurch miteinander reagieren und verschmelzen oder sich in andere Objekte umwandeln oder aufteilen, dann wäre das Zählen unmöglich. Spencer-Brown formuliert daher eigene Regeln, die das sicherstellen (die von ihm so genannten Kanons).

Erst später wird daraus das abstrakte Rechnen mit Zahlen, bei dem nicht mehr ausdrücklich auf bestimmte Gegenstände hingewiesen wird. Die Zahlen selbst sind keine physischen Gegenstände. In der Schule wird das implizit mitgelernt, und es bleibt zeitlebens eine ungelöste Frage, ob die Zahlen unabhängig von den gezählten Gegenständen bestehen, ob sie eine der Eigenschaften der gezählten Gegenstände sind, oder ob es die Zahlen nur im Denken von vernunftbegabten Wesen wie den Menschen gibt, die im Laufe ihrer Entwicklung Zahlen eingeführt haben und mit ihnen in Gedanken operieren können. Die Philosophen und Logiker haben hierüber nie Einigkeit erzielt.

Für Spencer-Brown haben die beiden Zeichen call und Ock ock den gleichen Rang wie die Zahlen, sie sind gewissermaßen die beiden Proto-Zahlen, mit denen die Proto-Arithmetik rechnet (calculates). Sie können wie die gewöhnlichen Zahlen an Gegenständen und Vorgängen demonstriert werden, es können aus ihnen komplexere Zeichen zusammengesetzt werden nach den beiden Regeln der Mehrfach-Ausführung und Verschachtelung (Konstruktionen), und sie haben für Spencer-Brown wie die Zahlen einen eigenen Status unabhängig von den Gegenständen und Prozessen, an denen Grenzen und Grenzüberschreitungen erkannt werden.

So wie die herkömmliche Arithmetik die natürlichen Zahlen 1, 2, 3, … einführt und mit ihnen rechnet, sieht Spencer-Brown seine primary arithmetic als eine vereinfachte und vorlaufende Arithmetik an, die nur die beiden Zeichen call und Ock ock kennt. Mit diesen beiden Zeichen soll auf eine Art gerechnet werden, wie wir es aus der gewöhnlichen Arithmetik gewohnt sind, um tieferliegende arithmetische Zusammenhänge zu erkennen, aus denen dann im Weiteren die gewöhnliche Arithmetik hergeleitet werden kann.

–    Die Arithmetik berücksichtigt die Individualität der jeweiligen Zeichen. In der Zahlentheorie ist jede einzelne Zahl etwas Besonderes. Was in der Arithmetik für eine bestimmte Zahl bewiesen wurde, lässt sich nicht ohne Weiteres auf die anderen Zahlen übertragen. Erst die Algebra wird Regeln studieren, die grundsätzlich für alle Zahlen gelten. Das gilt auch für die Proto-Arithmetik, mit der die Besonderheiten der beiden Zeichen call und Ock ock untersucht werden.

Spencer-Brown will zurückkehren zu dem ursprünglichen Zahlenverständnis, das in der Arithmetik enthalten ist und der Algebra vorausgeht. Wer das Rechnen und Umgehen mit Zahlen lernt, wird anfangs jede Zahl in ihrer Besonderheit erfassen. Jede neue Zahl hat etwas Eigenes. Kinder lernen, wie z.B. die Zwei und die Vielfachen von Zwei, die Drei und die Vielfachen von Drei, die Fünf und die Vielfachen von Fünf jeweils etwas Besonders haben. So haben z.B. alle Vielfachen von Fünf als letzte Ziffer nur die 0 oder die 5 (5, 10, 15, 20, …), bei den Vielfachen der 3 ist die Quersumme durch 3 teilbar (die Quersumme ist die Summe aller Ziffern, z.B. wird die Quersumme von 75342 berechnet als 7+5+3+4+2=21 und da 21 duch 3 teilbar ist, ist auch 75342 durch 3 teilbar). Jeder, der von Mathematik begeistert ist, ist anfangs von Zahlenspielereien und Gedanken über die Besonderheiten der einzelnen Zahlen verwundert (thaumazein). Auch wenn es ein Außenstehender vielleicht kaum nachvollziehen kann, zeigt sich für mich in dieser Art mit Zahlen zu spielen die gleiche Haltung und Freude wie beim Kanon-Singen. Aus der Schule von Piaget stammt das Beispiel: Ich sage eine Zahl und du sagst eine Zahl. Wer die größere Zahl gesagt hat, hat gewonnen. Beide müssen lachen, wenn sie den Trick verstehen, warum ständig der zweite gewinnt, und wiederholen doch voller Übermut das gleiche Spiel immer neu. Das ist für mich das erste und einfachste Beispiel einer arithmetischen Beweisidee, mit der die Kinder ohne es wissen eine Prozedur für den Beweis gefunden haben, dass es unendlich viele Zahlen gibt.

Im Ergebnis entstehen Regeln wie die sogenannten Eselsbrücken, die jeweils für bestimmte Zahlen gelten und nicht auf andere Zahlen übertragbar sind. Jeder wird seine Lieblingszahlen und seine favorisierten Rechenverfahren haben, die ihm besonders gut gelingen, vergleichbar den Lieblingsfarben. Spencer-Brown will zu diesem ursprünglichen (naiven, magischen) Umgang mit den Zahlen zurück, denn nur aus ihm heraus ergeben sich für ihn im Weiteren die Möglichkeiten, den im 20. Jahrhundert entstandenen formalen Umgang mit Zahlen in einem neuen Licht zu sehen.

Im Sinne von Piaget gehört für ihn die Arithmetik zur II. Phase des symbolischen und vorbegrifflichen Denkens, die er in ihrer Besonderheit und Eigenheit erhalten will. Der Übergang zur Algebra wird daher in Vielem den Übergang zum operationalen Rechnen in der III. Phase (im Alter von 7 bis 12 Jahren) ähneln.

–    Innerhalb der Arithmetik gibt es Sätze (Theoreme). Theoreme sind für Spencer-Brown Ideen, die an individuellen, einzigartigen Elementen gefunden werden. In ihnen zeigt sich die Mathematik im engeren (eigentlichen) Sinn. Die Algebra wird dagegen formuliert für Variable unabhängig von der Individualität der jeweils eingesetzten Werte. Daher kann sie für Spencer-Brown keine Theoreme beweisen, sondern nur mit formalen Methoden Konsequenzen ziehen. Die Vorgehensweise der Algebra kann im Prinzip von Computern übernommen werden. Im 20. Jahrhundert wird seit Mathematikern wie Russell die Mathematik mit dieser Art zu operieren gleichgesetzt. Das ist für Spencer-Brown ein großer Rückschritt, der die Mathematik, die mathematischen Fähigkeiten und die Freude an der Mathematik verkümmern lässt.

Was mit Theoremen gemeint ist, wird am besten klar an dem von Spencer-Brown genannten Beispiel: Euklid hat den Satz bewiesen, dass es unendlich viele Primzahlen gibt. Sein Beweis war: Wenn es nur endlich viele Primzahlen gibt, gibt es eine größte Primzahl. Sie heiße N. Wird das Produkt aller Primzahlen von 1 bis N gebildet, ergibt sich M = 1 · 2 · 3 · 5 · 7 · …· N (4, 6 usf. sind hierbei ausgelassen, da es keine Primzahlen sind). Für M lässt sich zeigen, dass M + 1 eine Primzahl ist. Daher gibt es eine weitere Primzahl und so fort. Diese Idee kann nicht als Konsequenz aus den arithmetischen Regeln gefolgert werden, sondern sie musste gefunden werden. Wichtig ist für Spencer-Brown zweierlei: Der Beweis zeigt sowohl eine originelle Beweisidee wie auch ein Verfahren (procedure), mit dem überzeugend die Beweisidee vorgeführt wird. Die meisten werden erst vom Verfahren überzeugt sein, warum der Satz richtig ist, und von ihm ausgehend die Beweisidee verstehen. Eine solche Beweisidee ergibt sich aus der für die Arithmetik typischen Art des Rechnens, die ein tiefes Verständnis (um nicht zu sagen Mitgefühl) mit den Zahlen und ihren inneren Rhythmen und unendlich vielfältigen Beziehungen und Verwandtschaften hat. Das kann kein Computer. Computer liefern dagegen eine andere Art von Erkenntnisssen, die für Spencer-Brown zur Algebra gehören.

–    Spencer-Brown war von der Schalt-Algebra und der Booleschen Algebra ausgegangen und hatte die Arithmetik gesucht, die ihr vorausgeht und deren Algebra sie ist.

Gewöhnlich lernen wir die Arithmetik anhand der natürlichen und reellen Zahlen kennen und anschließend all die algebraischen Regeln, wie mit ihnen gerechnet werden kann. George Boole (1815-1864) hatte 1847 eine vereinfachte Algebra gefunden, die direkt auf die elementaren logischen Operationen wie UND und ODER zurückgeht und deren Variablen im einfachsten Fall nur für die zwei Zahlen 0 und 1 (oder in der Schalt-Algebra für ‘an’ und ‘aus’) gelten. Das war für Spencer-Brown der Ausgangspunkt, und er wollte auf diesem Weg noch einen Schritt weiter gehen: So wie die Arithmetik der natürlichen und reellen Zahlen den komplexen Theorien der Zahlentheorie und der Analysis zugrunde liegt, sollte es möglich sein, für die Boolesche Algebra eine eigene vereinfachte Arithmetik zu finden. Sie geht als primary arithmetic (Proto-Arithmetik) der üblichen Arithmetik ebenso voraus wie die Boolesche Algebra der gewöhnlichen Algebra. Als ihm das gelungen war (das ist die Proto-Arithmetik, die nur mit den beiden Zeichen call und Ock rechnet), hat er im Rückschluss gesehen, dass daraus eine andere Algebra hervorgeht als die Boolesche Algebra.

–    Aus Sicht von Spencer-Brown können die bahnbrechenden Aussagen von Gödel anders und neu gelesen werden: Kurt Gödel (1906-1978) hat 1931 gezeigt, dass ab einer bestimmten Komplexität der Zahlen die Algebra nicht mehr alles zu sagen vermag, was in der ihr vorausgehenden Arithmetik möglich ist. Die Arithmetik enthält mit der Individualität ihrer Zeichen einen  Überschuss, der von keiner Algebra eingefangen werden kann. Die Algebra ist gegenüber der Arithmetik grundsätzlich unvollständig. Wie weit auch die Algebra entwickelt sein mag, aus der Arithmetik können neue Erkenntnisse kommen, die über die jeweils bekannte Algebra hinausgehen. Wenn Spencer-Brown in Kapitel 9 von der Completeness (Vollständigkeit) spricht, meint er etwas anderes. Theorem 17 besagt: »The primary algebra is complete« (LoF 50). Das besagt jedoch nicht, dass sie alles enthält, was an arithmetischen Entdeckungen gewonnen werden kann, sondern nur, dass jede arithmetische Entdeckung sich auch algebraisch formulieren lässt. »That is to say, if α = β can be proved as a theorem about the primary arithmetic, than it can be demonstrated as a consequence for all α, β in the primary algebra.« (LoF, 50) Mit Bedacht spricht Spencer-Brown daher von einem Theorem und nicht von einer Konsequenz, d.h. von einer Aussage, die mit den Methoden der Arithmetik und nicht mit denen der Algebra zu beweisen ist.

»So, to find the arithmetic of the algebra of logic, as it is called, is to find the constant of which the algebra is an exposition of the variables--no more, no less. Not, just to find the constants, because that would be, in terms of arithmetic of numbers, only to find the number. But to find out how they combine, and how they relate -- and that is the arithmetic. So in finding -- I think for the first time, I don't think it was found before, I haven't found it -- the arithmetic to the algebra of logic -- or better, since logic is not necessary to the algebra, in finding the arithmetic to Boolean algebra, all I did was to seek and find a) the constants, and b) how they perform.« (AUM, Session Two)

– Ein Beispiel für das Rechnen und Beweisen aus der Proto-Arithmetik

»Theorem 1. Form The form of any finite cardinal number of crosses can be taken as the form of an expression.« (LoF, 12) »Die Form jeder endlichen ganzen Zahl von Kreuzen kann als Form eines Ausdrucks aufgefasst werden.« (Spencer-Brown, übersetzt bei Lau, 40) Die Aussage ist in dieser Form kaum direkt zu verstehen. Sie bedeutet, dass eine beliebige Form, die aus endlich vielen Haken und Ocks konstruiert ist, entweder in einen einzelnen Haken oder ein einzelnes Ock umgewandelt werden kann. Diese Aussage kann auch anders formuliert werden: Jede noch so komplizierte aus Haken und Ocks zusammengesetzte Form kann im Ganzen als eine Form angesehen werden. Das lässt sich an einem Beispiel verdeutlichen, das Spencer-Brown später für das 3. Theorem anführt (LoF, 17):

beispiele LoF 17

Es soll gezeigt werden, wie diese Figur auf einen Haken oder ein Ock reduziert werden kann. Die Beweisidee besteht darin, auf die tiefste Verschachtelungsstufe zu gehen. Dort gibt es nur zwei Möglichkeiten: Entweder wiederholt sich ein Haken mehrfach, oder zwei Haken sind ineinander geschachtelt. Wenn es sich wiederholt, kann es nach Axiom 1 in einen einzigen Haken zusammengefasst werden (condensation). Wenn sich zwei Haken verschachteln, können diese nach Axiom 2 in ein Ock umgewandelt werden (cancellation). Das Beispiel gibt zugleich einen Eindruck, wie in der Proto-Arithmetik gerechnet wird. Mit rot sind jeweils die Haken hervorgehoben, die im nächsten Schritt zusammengezogen oder ausgelöscht werden können. Für die Umwandlungen wird das von Spencer-Brown eingeführte Zeichen changedto verwendet.

beispiele LoF 17a     changedto     beispiele LoF 17a2

beispiele LoF 17b     changedto     beispiele LoF 17b2

beispiele LoF 17c     changedto     beispiele LoF 17d

Wie wichtig dies Ergebnis ist, zeigt ein Vergleich mit Netzwerken. Wenn ein unübersichtliches Netzwerk vorliegt und auf ähnliche Weise vereinfacht werden soll, können Deadlocks auftreten, bei denen jede weitere Vereinfachung blockiert ist, siehe als Beispiel die Möglichkeit von Deadlocks in Petri-Netzen. Das ist in dem von Spencer-Brown gewählten Kalkül nicht möglich. Jedes komplexe Zeichen lässt sich bis auf eins der beiden Grundzeichen umwandeln.

– Opazität und Transparenz von Arithmetik und Algebra

Das Verhältnis von Arithmetik und Algebra wirft weitreichende philosophische Fragen auf: Die Arithmetik ist einzigartig und opak (dunkel, verschwommen, lichtundurchlässig), die Algebra ist transparent und durchsichtig. Innerhalb der Algebra lässt sich alles aus den vorgegebenen Grundregeln ableiten, die Spencer-Brown als Initiale bezeichnet. Die algebraischen Ableitungen sind für ihn keine Beweise mit jeweils eigenen Beweisideen, sondern lediglich Konsequenzen, die sich formal aus den Initialien ergeben, und die auch ein Computer ausführen kann. In der Arithmetik gibt es dagegen eine unendliche Fülle von Möglichkeiten, die grundsätzlich mehr enthält, als von der Algebra aus sichtbar ist. Sie enthält immer etwas, was für die Algebra verborgen (opak) bleibt.

Mit der Arithmetik werden Werteverläufe und die ihnen zugrundeliegenden Regeln erkannt. Der einfachste Fall ist das Axiom der natürlichen Zahlen, wonach jeweils zwei benachbarte natürliche Zahlen durch den Abstand 1 voneinander getrennt sind. Dagegen ist bis heute ungeklärt, wie der Werteverlauf der Primzahlen aussieht. Mit Euklid ist zwar bewiesen, dass es unendlich viele Primzahlen gibt, aber keiner weiß, wie sich ihre Abstände entwickeln. Eine der am meisten erforschten und dennoch unbewiesenen mathematischen Vermutungen stammt von dem Mathematiker Bernhard Riemann (1826-1866), der 1859 mithilfe der imaginären Zahlen immerhin eine wichtige Abschätzung für die Verteilung der Primzahlen postulierte.

Die Primzahlen und ihre Eigenschaften sind das beste Beispiel, was Spencer-Brown mit der Opazität der Arithmetik meint. Trotz aller fortgeschrittenen Methoden der Mathematik gelingt keine Lösung. Für Spencer-Brown ist das eine Indikation, dass es nach seiner Überzeugung nie gelingen wird, die Fülle der Arithmetik völlig zu überschauen. Er brachte das in die unscheinbare Aussage: »Principle of transmission: With regard to the oscillation of a variable, the space outside the variable is either transparent or opaque.« (LoF, 48). Mit »oscillation of a variable« ist der Werteverlauf beispielweise der Primzahlen gemeint.

Damit hat sich das Verhältnis von Mathematik und Philosophie radikal verschoben. Seit Descartes war die neuzeitliche Philosophie überzeugt, dass es einer in sich völlig transparenten Methode möglich sein müsste, alle Dinge zu durchschauen. Aufgabe der Philosophen ist es, diese Methode zu entwickeln, und von den Dingen wurde angenommen, dass sie im Prinzip transparent sind, d.h. metaphorisch gesprochen, sich dem Licht einer überlegenen Methode nicht widersetzen. Möglicherweise ist es sogar in der Geschichte der Natur die Aufgabe des Menschen, eine solche Methode zu finden und die Dinge aus ihrer Verborgenheit zu befreien. Sie warten gewissermaßen darauf, vom Menschen aus ihrer Dunkelheit erlöst zu werden.

Die Gegenposition geht bis zu Heraklit zurück, von dem der Spruch überliefert ist, »die Natur liebt es sich zu verstecken«. Während sich seit Descartes die Philosophen von der Mathematik Unterstützung versprochen haben, mit mathematischer Strenge eine Methode zu finden, der sich alles öffnet, kehrt erst Spencer-Brown das Verhältnis um. Für ihn wiederholt sich nicht nur  innerhalb  der Mathematik das Verhältnis von Opazität und Transparenz, weswegen die Mathematik nicht einfach auf die Seite der Transparenz geschlagen werden kann, sondern für ihn war es fatal und eine durchgreifende Lähmung der mathematischen Kreativität, an und mit der Mathematik nur dasjenige zu suchen, was transparent ist. Der Siegeszug der mathematisierten Wissenschaften seit dem 19. Jahrhundert ist für ihn ein Kartenhaus, welches sofort zusammenfällt, wenn betrachtet wird, wie die Mathematik im Innern vorgeht. Sie hat für ihn mit der Dominanz der bloßen Herleitung von Konsequenzen in einer Algebra ihre Lebendigkeit verloren. Das sieht er exemplarisch in den Principia Mathematica von Russell und Whitehead.

Kant hatte mit seiner Lehre des Ding an sich als erster die Erfolgsaussichten von Descartes in Frage gestellt, aber offen gelassen, ob sich die Unergründlichkeit des Dinges an sich paradoxerweise bestimmen lässt. Die Mathematik stand für ihn auf Seiten einer transparenten Wissenschaft und war für ihn der Garant der Vernunft. Wann immer er die Freiheit der Vernunft beschreiben wollte, griff er auf Bilder aus der Mathematik zurück, so z.B. in seiner Idee einer Sphäre des Begriffs, die sich von einem bestimmten Standort aus überschauen lässt und insofern transparent ist (Kant Kritik der reinen Vernunft, B 886). Allerdings erkannte er, dass das nur gilt, wenn die Sphäre nicht gekrümmt ist. Durch die Krümmung entzieht sich dem Blick, was jenseits des Horizonts liegt, und daher gibt es gute Gründe, die Krümmung als die elementare Eigenschaft der Opazität der Dinge zu verstehen. Die Kant nachfolgende Naturwissenschaft hofft bis heute, für die Krümmung ein mathematisches Maß zu finden und dadurch ihre Opazität in Transparenz zu wandeln.

Nach Kant trennte sich die Philosophie in zwei Richtungen. Die einen suchten entweder nach einer neuen Methode, der sich kein Objekt entziehen kann. Hauptvertreter sind Hegel mit der dialektischen Methode (HW 6.551) und alle diejenigen, die ihm folgen. Oder sie hofften, innerhalb der Mathematik Sicherungen einzubauen, die ihre volle Transparenz garantiert. Die anderen zogen aus der Lehre vom Ding an sich die Konsequenz, dass am Denken dessen prinzipielle Grenzen nachweisbar sind. Nietzsche traf es auf den Punkt, als er vom »Aberglauben der Logiker« sprach, sie könnten mit Descartes an ihrem eigenen Denken erkennen, dass es ein ‘Ich’, gibt, das denkt, während es für ihn genauso denkbar ist, »dass ein Gedanke kommt, wenn ‘er’ will, und nicht wenn ‘ich’ will« (Nietzsche Jenseits von Gut und Böse, 1. Hauptstück, Kapitel 17).

Seither wird von den Nachfolgern Nietzsches von der Opazität des Denkens gesprochen. Für sie folgt aus der Opazität der Dinge zwangsläufig, dass auch das Denken seine Transparenz verliert, an die noch Descartes glaubte, wenn es sich selbstbezüglich als sein eigenes Objekt untersucht. So sieht Heidegger in einer Deutung durch Franco Volpi in Sein und Zeit »die Identität des menschlichen Lebens [...] nicht allein in der Transparenz rein rationaler Selbstdarstellung und Selbstbestimmung, sondern ebenso in der unverfügbaren Opazität seiner Stimmungen, für welche die Befindlichkeit die ontologische Möglichkeitsbedingung sein soll.« (Volpi, 43). Für Sartre »verdinglicht das reflektierende Bewußtsein sein Je zu einem Verdichtungszentrum (centre d'opacité), das im reflektierten Bewußtsein als 'die Psyche' (Moi/Ego) ein Eigenleben zu führen scheint: Bewußtsein (Je) – Moi – Leib.« (Scheier, Luhmanns Schatten, 69 mit Bezug auf Sartre Transzendenz des Ego). Und Adorno wendet sich direkt gegen Hegel:

»Im emphatischen Sinn bedurfte er (Hegel) der Sprache nicht, weil bei ihm alles, auch das Sprachlose und Opake, Geist sein sollte. Jene Supposition ist nicht zu retten. Wohl aber transzendiert das in keinen vorgedachten Zusammenhang Auflösliche als Nichtidentisches von sich aus seine Verschlossenheit. Es kommuniziert mit dem, wovon der Begriff es trennte. Opak ist es nur für den Totalitätsanspruch der Identität; seinem Druck widersteht es. Als solches jedoch sucht es nach dem Laut. Durch die Sprache lost es sich aus dem Bann seiner Selbstheit.« (Adorno Negative Dialektik, 162)

Bei Spencer-Brown ist dieser Konflikt wiederum in die Mathematik hineingenommen. Für ihn kann die Mathematik erst wieder zu neuem Leben erwachen, wenn sie den Anspruch auf restlose Transparenz aufgibt und die damit verbundene Selbstbeschränkung auf Methoden, die diesem Anspruch genügen. Und die Philosophie muss nicht dabei stehen bleiben, entweder die Opazität der Dinge zu fordern oder zu negieren, sondern sie kann dank der Kreativität der Mathematik diese Frage von immer neuen Seiten sehen, wenn erst einmal wieder Bewegung in die Mathematik kommt. Es zeigt für mich den betrüblichen Zustand, in dem sich heute nicht nur die Mathematik, sondern auch die Philosophie befindet, wenn diese außer durch den philosophie-skeptischen Soziologen Luhmann die Arbeiten von Spencer-Brown nicht einmal zur Kenntnis nimmt.

Re-entry

Überblick Von den Laws of Form ist vor allem die Idee eines Re-entry aufgenommen worden. Re-entry kann sowohl als Resonanz, Rekursion, Feedback, Selbstreferenz wie auch als Reflexivität von Begriffen aufeinander oder einer Gesellschaft von Menschen verstanden werden, in der der eine Bezug auf die anderen nimmt. Daher ist bis heute seine Wirkung stark von der Theorie selbstreferentieller Systeme wie von Anwendungen in der Soziologie und Psychologie dominiert. Mir ist zweierlei wichtig: Welche Voraussetzungen müssen für Spencer-Brown gegeben sein, damit es zu einem Re-entry kommen kann? Das sind Selbstähnlichkeit, Gleichförmigkeit, Unabhängigkeit der einzelnen Wiederholungen voneinander (der Ausschluss von Nebenwirkungen) und damit die volle Transparenz der Proto-Algebra. In der Proto-Arithmetik gibt es noch keinen Re-entry. Im Gegenteil: Mit dem Re-entry kommt es zum »loss of connexion with arithmetic« (LoF, 58). – Und mit dem Prozess, der zum Re-entry führt, ist eine Art innere Musikalität gegeben, die mit dem Re-entry in die Ordnung eingeführt wird, aus der sie hervorgeht. Es ist nicht nur eine Narbe oder ein Riß, die am Ort des Re-entry vernäht werden, sondern das System im Ganzen wird in eine Schwingung versetzt (beginnt zu oszillieren), aus der eine neue Ordnung hervorgeht (die Emergenz). – Spencer-Brown hat nach eigener Aussage über 5 Jahre an diesem Kapitel gearbeitet (AUM, Session Two).

Ein Re-entry ist für Spencer-Brown erst in der Algebra möglich, auch wenn er in der Konsequenz Rückwirkungen auf die Arithmetik haben wird. Denn ein Re-entry ist für ihn nur möglich, wenn sich eine Figur unendlich oft gleichförmig wiederholt, während die Arithmetik grundsätzlich nur mit Konstruktionen arbeitet, die endlich viele Schritte enthalten (9. Kanon; LoF, 54). Der Übergang zur Unendlichkeit gelingt erst, wenn in der Algebra Variablen betrachtet werden, die unabhängig von ihrem jeweiligen Inhalt sind, und dank der Transparenz innerhalb der Algebra die Sicherheit besteht, dass es in den unendlich vielen Wiederholungen zu keinen inneren Abweichungen kommt. Mit dem Re-entry zeigt sich das Neue (und damit die relative Autonomie) der Algebra gegenüber der Arithmetik.

Vorbild für den Re-entry ist nach meinem Eindruck die Konstruktion der ersten transfiniten Zahl ω bei Cantor. Wenn unendlich oft die Nachfolger-Relation von n zu n + 1 wiederholt wird, kann der Grenzwert per Re-entry aufgenommen werden. Jenseits von allen abzählbaren Zahlen 1, 2, 3, … n, n+1, … liegt die transfinite Zahl ω. Sie kann nie durch Zählen erreicht werden, aber sie kann formal als Ergebnis der Regel des Zählens definiert und in eine vergrößerte Zahlenmenge aufgenommen werden. Der bereits genannte Mathematiker Riemann hatte dafür eine sehr anschauliche Vorstellung gefunden: Wenn auf der Zahlengerade im Nullpunkt eine Kugel aufgelegt wird, deren Mittelpunkt mit der Zahl Null identisch ist, kann eindeutig jeder Zahl ein Punkt auf der Kugel zugeordnet werden, indem die Verbindungslinie zwischen dem Nordpol und der jeweiligen Zahl gezogen wird, die an genau einer Stelle die Kugel schneidet. Für Zahlen außerhalb der Kugel (das sind in der folgenden Abbilung die Zahlen größer als 1 oder kleiner als −1) liegt der Schnittpunkt auf der oberen Halbkugel, für Zahlen innerhalb der Kugel auf der unteren Halbkugel (im folgenden Beispiel die Zahlen zwischen −1 und 1). Der Nordpol entspricht der auf der Zahlengerade unendlich-fernen Zahl ω.

Riemann Zahlenkugel


Quelle: Wikipedia, abgerufen am 4.3.2017, Von Jean-Christophe BENOIST - Eigenes Werk. Merci à Friedrich A. Lohmüller pour sa bibliothèque POV., CC BY-SA 3.0, Link

Dieses Bild erklärt für mich auch, warum für Spencer-Brown mit dem Re-entry die imaginären Zahlen erreicht werden. Mit der Zahlenkugel wird eine neue Achse definiert, die senkrecht auf der Zahlengerade steht und vom Südpol zum Nordpol der Kugel verläuft. Wie das Bild zeigt, kann die Zahlenkugel eine Verallgemeinerung des Zahlenraums definieren: Es wird auf der Kugel nicht nur mit dem Nordpol ein Bild der transfiniten Zahl ω gefunden, sondern zugleich auch Bilder für alle Zahlen, die in der Zahlenebene liegen. Die Zahlenebene wird seit dieser Darstellung von Riemann als die Menge aller komplexen Zahlen verstanden, die zweite Achse der Ebene als die imaginäre Achse.

Spencer-Brown überträgt diese Erkenntnis über natürliche, reelle und imaginäre Zahlen auf seine Proto-Arithmetik und Proto-Algebra. Er konstruiert dort eine Regel, die vergleichbar der Nachfolger-Relation von n nach n + 1 beliebig fortgesetzt und für die analog zur Nachfolger-Relation ein unendlich-fernes Element definiert und per Re-entry in einen größeren Zahlenraum aufgenommen werden kann.

»Der nächste entscheidende Schritt besteht darin, sich vorzustellen, wenn es möglich ist (let us imagine, if we can, LoF, 55), dass der Prozess dieser Schrittsequenz end- oder zeitlos (timelessly) weiterläuft. Im Raum würde das ein Echelon (Staffelung) von a's und b's ohne Grenze ergeben. [...] Da die Bestimmung des Wertes eines Ausdrucks an die Regel der endlichen Demonstrierbarkeit gebunden ist, kann über den Wert eines Echelons ohne Grenzen keine Aussage gemacht werden.« (SWH, 175)

Er zeigt, wie es in der Proto-Algebra möglich ist, eine unendliche Sequenz zu konstruieren, in der von einer Variable a durch ein Crossing über die sie begrenzende Grenze hinweg zu einer Variable b gelangt wird, und von dieser in einem weiteren Schritt erneut zu a, usf. (Die Konstruktion ist wie eine neue Konsequenz hergeleitet aus den bereits bekannten Initialen und Konsequenzen der Proto-Algebra; LoF 55.)

spencer brown re-entry prozess

E1 Re-entry
(LoF, 56)

Dies Diagramm zeigt, wie durch den Re-entry eine Erkenntnis über eine Regel in den Zahlenraum aufgenommen wird, in diesem Beispiel durch den Übergang von a zu fa.

Die Zusammenfassung der unendlich vielen Crossings von a zu b zu a zu b usw. in die Funktion f ist gebunden an drei Bedingungen: (a) »eine klar bestimmte Folge von Schritten, es gibt also eine klaren Konstruktionsanweisung«, (b) sie »soll kontinuierlich fortgesetzt werden«, (c) sie enthält ein »Muster der Sich-selbst-Gleichheit« (SWH, 175).

»The key is to see that the crossed part of the expression at every even depth is identical with the whole expression, which can thus be regarded as re-entering its own inner space at any even depth.« (LoF, 56)

Anmerkung 1: In den Notes erläutert Spencer-Brown, dass sich so etwas systematisch ergibt, sobald Gleichungen zweiten Grades zugelassen sind. Er demonstriert das an x2 = x oder in seinem Kalkül aa = a und führt es dann aus am elementaren Polynom zweiter Ordnung. Es ist für mich noch offen, ob und wie sich das mit Hegels Einführung der zweiten Potenz in der Wissenschaft der Logik vereinbaren und möglicherweise erweitern und vertiefen lässt.

Anmerkung 2: Der Re-entry liegt im Sinne von Hegel genau zwischen der schlechten und der wahren Unendlichkeit. Die schlechte Unendlichkeit führt bis zum Zählen 1, 2, 3, … n, n+1, …, der Re-entry scheint mir noch nicht die wahre Unendlichkeit im Sinne Hegels zu ergeben, aber sie vorzubereiten.

– Time

In den bisherigen Überlegungen wurde der Re-entry erreicht durch eine Vergrößerung des Zahlenraums, siehe das Beispiel der Erweiterung der Zahlenreihe zur Zahlenkugel. Abschließend fragt Spencer-Brown, ob ein Re-entry auch möglich ist  innerhalb  des gegebenen Raums.

»Since we do not wish, if we can avoid it, to leave the form, the state we envisage is not in space but in time.« (LoF, 58)

Das ist für ihn nur möglich, wenn die sich unendlich oft wiederholende Operation innerhalb der gegebenen Form dargestellt wird. Er veranschaulicht das mit oszillierenden Funktionen, wobei es zu einer Überlagerung voneinander unabhängiger Zyklen und Subzyklen kommen kann.

spencer brown time

Time as a Key
LoF, 63

An dieser Stelle soll auf weitere technische Details verzichtet werden. Mir scheint dieses Bild für sich zu sprechen und intuitiv nahezulegen, auf welche Weise Oszillationen, Schwingungen, Frequenz und Geschwindigkeit eingeführt werden können. Für Spencer-Brown zeigen sich in den Oszillationen Pulse, die den Raum durchlaufen (vgl. LoF, 61). Er wählt als neues Zeichen für den Re-entry in die lineare Achse:

spencer brown reentry     spencer brown modulator

Dies Symbol ist von großer Suggestivkraft, und für mich hat Spencer-Brown erst mit diesem Symbol (und nicht bereits mit dem Zeichen spencer brown call) der Formalisierung der Logik eine neue Wende gegeben. Dies Symbol wird herangezogen für unterschiedliche Anwendungen, und mit ihm scheint mir eine Formalisierung gelungen, die sich auf philosophische Entwürfe wie die Wissenschaft der Logik von Hegel anwenden lässt, siehe dazu den Anhang.

Auch das Lügner-Paradoxon (und damit ebenfalls die Russellsche Antinomie) findet für ihn auf diese Weise nicht eine Lösung, aber eine  Verlaufsform: Das Paradoxe der negativen Selbstbezüglichkeit ›Dieser Satz ist falsch‹ liegt daran, dass er ständig zwischen der Objekt- und der Meta-Ebene hin und her springt: Wird auf der Meta-Ebene gesagt, dass der Satz falsch ist, dann bedeutet das auf der Objektebene, dass seine Aussage umgekehrt werden muss. Wird die Aussage auf der Objektebene umgekehrt, muss in Konsequenz auf der Meta-Ebene gesagt werden, dass er richtig ist und daher seine Aussage nochmal umgekehrt werden, usf. Für Spencer-Brown ist das formal ein Beispiel für einen Re-entry und vergleichbar einer Zuweisung in einem Computer-Programm: Dem Satz wird abwechselnd der Wahrheitswert ‘wahr’ und ‘falsch’ zugewiesen. Das ergibt im Sinne der Programmierung eine Endlos-Schleife, die fortwährend zwischen zwei Werten hin und her springt:

Re-entry wahr falsch

Spencer-Brown war überzeugt, mit dieser Entdeckung den gesuchten gordischen Knoten gefunden zu haben. Er hat die imaginären Zahlen erreicht, und er war in der Lage, komplexe oszillierende Figuren in Schalt-Plänen aufzuzeichnen, die bereits der Art der von ihm betriebenen Programmierung in technischen Anwendungen sehr nahe kommt.

Er verdeutlicht das einem Beispiel: Der im Titel wiedergegebene Ablauf ist ein Muster unterschiedlicher Zyklen und Subzyklen mit unterschiedlicher Reichweite, die ineinander verschachtelt per Re-entry auf die horizontale Achse aufgenommen werden. Der gleiche Ablauf lässt sich als Schaltplan zeichnen, der der Art von Programmierung sehr nahe kommt, mit der Schaltkreise entwickelt werden (LoF, 67):

spencer brown schaltkreis

In diesem Schaltplan gibt es Sprungstellen, an denen der Weg in unterschiedliche Richtungen verzweigt, die in diesem Bild durch senkrechte Sperren eingetragen sind. (Programmiertechnisch handelt es sich um ein switch-statement, das 1952 von Stephen Kleene in der Metamathematik eingeführt worden war). Für einen Teil ist der Weg blockiert und nur ein Teil wird durchgelassen. Diese Blockaden können sich ihrerseits rhythmisch wiederholen, wodurch im Ganzen ein komplexes Gefüge entsteht. Heute werden nach dieser Idee neuronale Netze entworfen, mit denen künstliches Lernen simuliert und erzeugt wird. Hier treten nach dem Vorbild des Gehirns Synpasen an die Stelle der Verzweigungspunkte. In zunehmender Komplexität können Regeln aufgestellt werden, nach denen die Verzweigung erfolgt. Sie können sich möglicherweise im weiteren Verlauf des Prozesses selbsttätig verändern. Mit rekursiven Veränderungen dieser Art lassen sich Lernprozesse entwickeln und die Künstliche Intelligenz auf eine neue Stufe heben (Bestärkendes Lernen). Ein System lernt, indem es erkennt, welche Verzweigung erfolgreicher ist und diese rückwirkend höher gewichtet.

Mit der parallel entstandenen Arbeit von Donald Laing über Knoten (Knots, veröffentlicht 1970, ein Jahr nach Laws of Form) waren auch die Verbindungen zur Psychoanalyse und sich selbst blockierenden Strukturen aufgezeigt.

Was Spencer-Brown in der Logik und an Schaltkreisen aufgezeichnet hat, wurde überraschenderweise zur gleichen Zeit als eine avantgardistische Technik in die Musik eingeführt: Loops. Deren Vorbild waren mechanische Instrumente wie Spieluhren. Diese Technik macht den Reiz des Minimalismus aus und ist für mich besonders in den Stücken von Steve Reich (* 1936) unmittelbar hörbar und geradezu ein musikalisches Gegenstück zu den Laws of Form. Siehe z.B. bei YouTube mit einer sehr klaren Visualisierung das 1973 entstandene Stück Music for Pieces of Wood; YouTube. Wem es schwer fällt, die Ideen von Spencer-Brown zu verstehen, der sollte mit dieser Filmsequenz anfangen. Dort ist unmittelbar zu sehen und zu hören, wie auf einem kanonischen Grundrhythmus weitere Rhythmen aufgebaut werden, bis schrittweise ein eigener für sich stehender Klangeindruck aufgebaut wird. Während anfangs die einzelnen rhythmischen Linien vom Ohr klar zu unterscheiden sind, springt dies an einem bestimmten Punkt um in einen Gesamteindruck eines harmonischen akustischen Gesamt-Bildes, in dem auch der statisch festgehaltene Grundrhythmus zu schwingen scheint.

Anmerkung: Spencer-Brown deutet die zeitlichen Strukturen des Re-entry als Gedächtnis (memory) und Oszillation. Husserl und Laing fanden dafür Gegenstücke in der Selbstinspektion des Denkens. (a) Jedes Ereignis verweist dank der inneren Rhythmik seines Musters auf die Vergangenheit und die Zukunft. Diese Art von Gedächtnis ist die Kontinuität, die innerhalb des Musters erhalten wird, die von Spencer-Brown genannten Pulse. Die Kontinuität als solche zeigt sich  im Muster, aber im Verlaufe des Hervortretens liegt sie in einer zweiten Ebene im inneren Zeitbewusstsein verborgen, die Husserl als Retentionen und Protentionen verstand. (b) Auch für die Oszillationen kann bei einer Selbstbetrachtung des Denkens ein Denkprozess gefunden werden: das kreiselnde, grüblerische Denken, das nicht aus einer Denkschleife hinauszufinden vermag und von der Psychiatrie als Denkstörung analysiert wird. Denkstörungen dieser Art gibt es nicht nur im monologischen Denken, sondern auch in Dialogen oder Gesprächen mehrerer Teilnehmer, die sich ständig um die gleichen Phrasen drehen und nicht aus ihnen hinaus zu finden vermögen. Das ist das Thema des Buches von Laing über Knoten.

– Re-entry bei Luhmann

Luhmann hat offenbar am Ansatz von Spencer-Brown vor allem die Idee gefallen, über die Zeit (time) einen Re-entry zu erreichen, der ohne einen Aus- oder Umweg über die Transzendenz auskommt. Luhmann deutete den Re-entry als einen Weg, der an einem System ohne den Umweg über einen allwissenden, externen Beobachter (»das Auge Gottes«) aus sich selbst heraus dessen Umgebung erkennt und aus der Umgebung in das System zurückkehrt. Der Re-entry ist für ihn der Wiedereintritt einer Erkundung der Umgebung eines Systems in das System. Ein System wird im Licht eines umgebenden Horizonts gesehen, und durch den Re-entry wird am System erkannt, welchen Schein der umgebende Raum des Horizonts auf es geworfen hat.

Anmerkung: Vergleichbare Ideen sehe ich sowohl in der Reflexionslogik von Hegel wie auch in den Aristoteles-Vorlesungen von Heidegger. Was Hegel als äußere Reflexion bezeichnet, die für eine Sache den Raum öffnet, in dem ihre inneren, zunächst noch impliziten und verborgenen Voraussetzungen erkannt werden, kann verglichen werden mit dem Übergang von einem System in seine Umgebung, und die daraus durch eine Negation gewonnene bestimmende Reflexion als Re-entry zurück zu dem jeweiligen Begriff. Heidegger hat wiederum in einer sehr genauen Analyse den Weg der Erkundung beschrieben, den Aristoteles in den Ausführungen zu Möglichkeit und Wirklichkeit in der Metaphysik gegangen ist. Siehe Heidegger Aristoteles, Metaphysik Θ 1-3, Frankfurt am Main 2006.

Luhmann führt nicht weiter aus, wie er von der Logik Spencer-Browns zu seiner Bestimmung des Systems und dessen Umgebung gekommen ist. Ich kann es mir so vorstellen: Wenn ein zeitlicher Rhythmus betrachtet wird, muss er messbar sein an einer feinkörnigeren Struktur, von der er sich abhebt. So können z.B. innerhalb der natürlichen Zahlen alle Vielfachen von 7 als eine Struktur verstanden werden, die sich von den natürlichen Zahlen abhebt. Zwischen je 2 Punkten mit der Frequenz von 7 gibt es jeweils 6 andere Zahlen, die übersprungen werden. Die 7-er Frequenz ist als 7-er Frequenz nur erkennbar innerhalb einer unterliegenden Menge der natürlichen Zahlen mit einer kanonischen 1-er Frequenz. Diese kann als die Umwelt verstanden werden, innerhalb derer die Bedeutung einer 7-er Frequenz überhaupt erst verständlich wird.

Luhmann überspringt den Gedankengang bei Spencer-Brown, der zur Einführung von Zeit und Re-entry geführt hat, und kommt direkt zu dem Ergebnis, das ihm wichtig ist:

»Das macht es möglich, die Unterscheidung von System und Umwelt, zunächst eine operativ entstandene Differenz, in das System einzuführen. Das werden wir im Anschluß an George Spencer Brown 're-entry' nennen.« (Luhmann Wissenschaft der Gesellschaft, 83)

Dieses Ergebnis lässt sich meiner Meinung nach mit dem Text von Spencer-Brown rechtfertigen, droht aber Missverständnisse hervorzurufen, als sei es Spencer-Brown vor allem um dieses Ergebnis gegangen.

Im Grunde geht es Luhmann um eine noch weiter reichende Konsequenz: In einer sowohl bei Baecker wie bei Scheier zitierten Formulierung (Baecker Kalkül der Form, 32 Fn. 29, Scheier Luhmanns Schatten, 59) führt Luhmann den Re-entry zurück auf eine übergreifende Bewegung einer »Uberschußproduktion-und-Selektion«, die er jedoch nicht weiter begründet, sondern als evolutionär entstandenes Faktum hinnimmt. Etwas treibt aus sich einen Überschuss heraus und nimmt es durch Selektion wieder auf.

»Die Operation des Beobachtens ist immer (und das muß, wer immer sie beobachtet, von den zwei Seiten ihrer Unterscheidung unterscheiden) die Einheit der zwei Komponenten Unterscheiden und Bezeichnen. Dies 'Unterscheiden-und-Bezeichnen' ist ein Anwendungsfall eines sehr viel allgemeineren Mechanismus, den man als 'Uberschußproduktion-und-Selektion' bezeichnen könnte. [...] Wir identifizieren mithin, um das zu wiederholen, das 'Unterscheiden-und-Bezeichnen' eines Beobachters als Anwendungsfall einer viel allgemeineren Form, die der Evolution komplexer selbstorganisierender Systeme zugrunde liegt. Schon dieser allgemeine Mechanismus von 'Uberschußproduktion-und-Selektion' führt zur Abschließung des Systems, das ihn praktiziert, da die auf dieser Grundlage möglichen eigenen Operationen nicht in die Umwelt hinein verlängert werden können. Auch ist bereits an dieser allgemeinen Form erkennbar, daß der Mechanismus nur als Einheit praktiziert werden kann – das heißt nur als Vollzug der Selektion aus einem Möglichkeitsüberschuß bzw. nur als Vollzug der Bezeichnung im Kontext einer Unterscheidung. Das wiederum zeigt, daß es sich in allen Fällen um ein empirisch operierendes System handelt, und es gibt keinen Beobachter, für den dies nicht gälte.« (Luhmann Wissenschaft der Gesellschaft, 81)

In der Grundaussage scheint mir Luhmann das zu treffen, was bereits Spencer-Brown mit einem Hinweis zu Proklos sagen wollte. (Spencer-Brown vergleicht die wechselweise Bewegung von generation und integration, die er als Konsequenzen innerhalb der Proto-Algebra herleitet, mit der Bewegung von prohodos und epistrophe bei Proklos; LoF 90.)

Werden die Entstehung und der Re-entry von Zeichen im Ganzen gesehen, dann ist das Möglichkeitsfeld aller Zeichen der Überschuss, der aus der Fähigkeit entsteht, Zeichen bilden zu können. (Der Begriff Möglichkeitsfeld ist übernommen von Scheier Luhmanns Schatten, 54). Mit dem Re-entry wird aus diesem Möglichkeitsfeld eine Selektion getroffen, die zu der Ebene zurückführt, aus der heraus die Produktion von Zeichen entstanden war. Die Bewegung hinaus in das Möglichkeitsfeld kann mit Proklos als prohodos verstanden werden, die Selektion, die mit dem Re-entry zurückführt in die Einheit der ursprünglichen Zeichenebene als epistrophe. Damit ist eine philosophische Betrachtung gefunden, die entgegen der ursprünglichen Intention von Luhmann weit über soziologisches Forschen und Denken hinausgeht und mitten in den Neuplatonismus wie auch dessen Nachfolger (Nikolaus von Kues, Hegel, ...) hineinführt. Für Luhmann ist daran jedoch vor allem interessant, dass für ihn ein System aus und an seiner Form seine eigene Umwelt findet, von der sich diese Form unterscheidet (das Möglichkeitsfeld aller Zeichen, die mit dem im System gegebenen Zeichenvorrat eröffnet werden) und zugleich eine Rückkehr. Im Sinne von Spencer-Brown kann die Überschussproduktion in der unendlichen Vielfalt von Sätzen und Beweisideen gesehen werden, die in der Proto-Arithmetik möglich sind. Das entspricht sowohl dem Entwurf aller möglichen Welten bei Leibniz wie der Konsequenz aus den Unvollständigkeitssätzen bei Gödel. Dem Re-entry (epistrophe) entspricht die Proto-Algebra bei Spencer-Brown, die Auswahl der besten aller möglichen Welten bei Leibniz, wie auch der von Gödel vertretene Platonismus, den ich in diesem Zusammenhang so deute, dass es für Gödel in der Offenheit aller möglichen Regeln solche gibt, die eine ausgezeichnete Bedeutung haben. Ihre Existenz kann nur mit einem philosophischen Prinzip verlangt werden, und das ist für Gödel der Platonismus.

Während für Spencer-Brown der Re-entry ein Vorgang ist, der aus einer bestimmten Art von Zeichenfolgen entsteht, bindet Luhmann ihn an den Beobachter. Um das zu verdeutlichen, führt er einen Begriff ein, den Spencer-Brown nicht gebraucht: Die Latenz. »Der Begriff bezeichnet die Möglichkeit, zu beobachten und zu beschreiben, was andere nicht beobachten können.« (Luhmann Wissenschaft der Gesellschaft, 89) Mit Latenz soll für Luhmann an einem System genau das bezeichnet werden, was für das System aus sich selbst heraus unaussprechbar bleibt und eines äußeren Beobachters bedarf, um es zu sehen. Für Spencer-Brown war dagegen umgekehrt der Nachweis wichtig, wie aus einem System von innen heraus ein Vorgang möglich ist, der aus dem System heraus- und durch den Re-entry wieder zurückführt. Für ihn ist unabhängig von der Frage nach einem Beobachter an einer Form der Verweis auf den Grund enthalten, vor dem sich die Form abhebt und ohne den sie nicht möglich wäre.

Mit dieser Wendung geschieht nach meinem Eindruck bei Luhmann zweierlei: Zum einen verkürzt er den umfassender gedachten Zusammenhang bei Spencer-Brown um einen wichtigen Schritt. Spencer-Brown will nicht erst durch den Beobachter zeigen, was Re-entry ist, sondern die Möglichkeit eines Re-entry aus dem Innern der Proto-Algebra aufzeigen. Er ist für mich daher weit konsequenter als es bei Luhmann deutlich wird. Spencer-Brown will aus der Proto-Algebra heraus zeigen, wie es dort Regeln und Phänomene gibt, die erst bei näherer Betrachtung auf das Verhalten von Beobachtern übertragen werden können und im Rückschluss zeigen, wie dies System im Ganzen nur von einem Beobachter hat entwickelt werden können (nämlich von Spencer-Brown selbst, der dies alles als Autor untersucht und dargestellt hat). Luhmann scheint mir diesen komplex gedachten Zusammenhang zu sehr zu vereinfachen.

Aber ihm gelingt durch seine Betonung des Beobachters etwas Anderes, womit er über Spencer-Brown hinausgeht: Er vergleicht den Re-entry mit dem Wechsel von empirischem und transzendentalem Denken seit Kant. Das empirische Denken kann wie die Proto-Arithmetik oder der prohodos als eine Überschussproduktion von Wissen verstanden werden. Wird gefragt, wie dieser Überschuss in Form gebracht werden kann, dann fand Kant darauf die Antwort, dass das mithilfe des transzendentalen Denkens möglich ist, dass  am empirischen Denken  den für das empirische Denken unsichtbaren Grund erkennt, vor dem es sich abhebt. So wie im Beispiel der 7-er Rhythmen gesagt wurde, dass diese nur vor dem Hintergrund des kanonischen 1-er Rhythmus als 7-er Rhythmus erkennbar sind, kann in einer Analogie gesagt werden, dass die Ergebnisse und Vorgehensweisen des empirischen Denkens nur möglich sind vor dem Hintergrund der Ergebnisse des transzendentalen Denkens, das mit und seit Kant am empirischen Denken dessen implizite Voraussetzungen erkennt. Luhmann lässt mit seinem Hinweis verstehen, wie das von Spencer-Brown beschriebene Wechselspiel von Arithmetik und Algebra als Modell für das Wechselspiel von empirischem und transzendentalem Denken gedeutet werden kann. Im empirischen Denken lassen sich Oszillationen erkennen, die per Re-entry in das Denken zurückkehren können. Damit ist die Einführung der Zeit (time) in der Logik von Spencer-Brown nochmals auf eine neue Reflexionsebene gehoben: Es läßt sich nicht nur an den Oszillationen Zeit erkennen, sondern die Eigenschaften dieser Zeit zu verstehen ist der Inhalt des transzendentalen Denkens. Wenn Kant gesagt hatte, dass mit dem transzendentalen Denken erkannt wird, wie die Eigenschaften der Zeit allen Aussagen des empirischen Denkens vorausgehen und zugrunde liegen, dann hat sich – den Gedanken von Luhmann aufgreifend – das transzendentale Denken begründet in einer Entstehung der Zeit, die im empirischen Denken bereits angelegt und erstmals von Spencer-Brown in dieser Deutlichkeit erfasst worden ist. Mit dem transzendentalen Denken wird sich das Denken der Entstehung von zeitlichen Prozessen im empirischen Denken bewusst.

Scheier gibt die Position von Luhmann wieder und versucht sie auf andere Art zu formalisieren: Mit dem Re-entry wiederholt sich auf der Meta-Ebene eine Differenz, die bereits in der Sach-Ebene besteht. Das lässt sich mit Spencer-Brown in anderen Worten sagen. Was ist die Differenz auf der Sach-Ebene und wie wiederholt sie sich auf der Meta-Ebene?

Die Differenz auf der Sach-Ebene sehe ich in Spencer-Browns Ausführungen zum Raum (s−1) (s steht für space) mit dem Index −1 (LoF, 42). Werden in einer Figur alle Verschachtelungen durchnummeriert von s0 bis zur tiefsten Ebene sn, dann verweist umgekehrt s−1 auf die die Form umgebende Wirklichkeit. Ein Beispiel ist für mich die Landkarte (nach SWH, 161). Auf der Landkarte kann in verschiedenen Stufen die Landschaft dargestellt werden. Nimmt jemand die Landkarte während einer Wanderung in die Hand und vergleicht sie mit der ihn umgebenden Natur, dann ist die Natur im Vergleich zur Landkarte der Raum s−1. Der Index −1 zeigt die Differenz, die zwischen dem besteht, was auf der Sach-Ebene als die Wirklichkeit erlebt wird, in der sich jeder Beobachter befindet, zu allen Zeichensystemen, mit denen er diese Wirklichkeit darstellen will, also z.B. zwischen der tatsächlichen Landschaft, in der er wandert, und ihren Darstellungen in Kartenwerken und deren Legenden.

Auf der Meta-Ebene kommt es zu einer neuen Differenz, die jetzt in den Sätzen zweiter Ordnung (Meta-Sätze, Aussagen über Sätze) gegenüber den ursprünglichen empirischen Sätzen (Protokoll-Sätze, kategoriale Sätze) besteht. Diese neue Differenz ist für mich die Differenz zwischen Algebra und Arithmetik. Spencer-Brown sieht das Neue (und damit die Differenz) der Algebra gegenüber der Arithmetik in der Möglichkeit eines Re-entry, der nur in der Algebra und nicht in der Arithmetik gegeben ist.

Besteht die Differenz der Sach-Ebene gegenüber den Sachen in der Wahrnehmungsfähigkeit des Menschen, der die ihn umgebende Umwelt auf im Prinzip unendlich viele Arten wahrnehmen und in Zeichen darstellen kann, dann besteht die Differenz der Meta-Ebene zur Sach-Ebene in der Sprachfähigkeit des Menschen, dem eine Sprache verliehen ist, mittels derer er der Algebra (algebraischen Denkens) fähig ist (um den Ausdruck von Spencer-Brown zu gebrauchen) und mit ihr des Re-entry.

Daher kann ich der Intention von Scheier sehr gut folgen, habe jedoch den Eindruck, dass er sich im Einzelnen von der eingeschränkten Sicht Luhmanns auf den Re-entry bei Spencer-Brown hat täuschen lassen.

In seiner Formalisierung beschreibt er die Differenz mit dem Zeichen | und erläutert den Re-entry an einer Formel, in der die Differenz auf der Sach-Ebene und die Differenz auf der Meta-Ebene zusammengeführt werden (Scheier Luhmanns Schatten, 67):
    f1 |1 (f|a)a1

In dieser Formel beschreibt (f|a) die Differenz | von Aussagen auf der Sach-Ebene (die mit Frege als Funktionen f verstanden werden) zu den von ihnen beschriebenen Sachen (die mit Frege als ihre Argumente a verstanden werden). In einem nachfolgenden Schritt werden auf der Meta-Ebene Funktionen f1 über die Funktionen f auf der Sach-Ebene gebildet. Hier entsteht eine neue Differenz |1 von den Funktionen auf der Meta-Ebene zu den Funktionen auf der Sach-Ebene.

Wenn ich es richtig verstehe, deutet Scheier das erneute Auftreten einer Differenz mit Luhmann als Re-entry.

»Dies meint “Wiedereintritt” (re-entry der Differenz System/Umwelt ins System: Die basale Operation f wird gesättigt durch die zum Element stabilisierte Spur des Ereignisses.« (Scheier Luhmanns Schatten, 68)

Mir scheint hier ein wichtiger Unterschied zu Spencer-Brown zu bestehen. Bei Spencer-Brown ist der Re-entry nicht eine Wiederkehr einer Differenz, die bereits auf Sach-Ebene besteht, sondern das Ergebnis einer unendlichen Konstruktion, die es nur in der Proto-Algebra unter den oben genannten Bedingungen geben kann. Der Re-entry ist nicht die Wiederholung des Auftretens einer Differenz, sondern er ist der Inhalt der Differenz der Proto-Algebra zur Proto-Arithmetik. Formal ist der Re-entry eine Rekursion, jedoch weder im Sinne einer Wiederholung eines Vorgangs aus einem anderen Bereich, noch im Sinne einer Reflexivität, sondern als Selbstaufruf: Eine Variable wird auf sich selbst angewandt; eine Funktion ruft sich über ihre eigenen Ergebnisse selbst auf. Das war die Pointe, um die es Spencer-Brown ging, weil er damit das von Russell und Whitehead aufgestellte Verbot selbstbezüglicher Funktionen und die von ihnen darauf aufgebaute Typentheorie überwinden wollte, indem er sie in einen neuen Horizont stellte. In der Deutung von Scheier ist es dagegen eine Art Wiederholung auf höherer Ebene. Scheier unterscheidet sorgfältig zwischen f und f1, d.h. einer Funktion f auf Sach-Ebene nach dem Vorbild von Frege und einer Funktion f1 auf Meta-Ebene, sowie zwischen der Differenz | auf der Sach-Ebene und der Differenz |1 auf der Meta-Ebene. Mit dieser für seine Darstellung Luhmanns sinnvollen und treffenden Unterscheidung geht jedoch genau das verloren, worum es Spencer-Brown geht: Die Rekursion. Scheier beschreibt in seiner Formel einen verschachtelten Aufruf von Funktionen durch Funktionen, wie Spencer-Brown sie bereits in der Proto-Arithmetik untersucht, und nicht rekursive Funktionen, um die es Spencer-Brown beim Re-entry geht.

Im Grunde hält Scheier mit seiner klaren Unterscheidung der verschiedenen, einander aufrufenden Funktionen die Typentheorie von Russell und Whitehead ein. Spencer-Brown will das durchbrechen.

»Die Differenz '|' (beobachtete) Umwelt, und die neue (unbeobachtete) Umwelt für das System1 ist die (noch unreflektierte) Differenz '|1'. Die formale Leitdifferenz also ist die Differenz (System1) von Identität (System) und Differenz (Umwelt). Das System1 ist damit zwar das selbstreferenzielle System, aber noch nicht für sich. Es besteht nur darin, seine Formen (Elemente, Operationen, Prozesse, Strukturen) von ihrem jeweiligen Medium (Umwelt) zu unterscheiden, und ist die als ausgeschlossen eingeschlossene Einheit von Gestalt und Grund.« (Scheier Luhmanns Schatten, 68)

Daraus ergibt sich für Scheier die Formel:

»Bereinigt um die spezifisch Sartreschen und Derridaschen Konnotationen ist dies die Struktur der Selbstreferenzialität mit dem ihr unabdingbaren re-entry:
    ...fn+1[f(a)System n + Umwelt]System n+1 ...« (Scheier Luhmanns Schatten, 71)

Als Ergebnis des Re-entry tritt für Scheier ein neuer Summand auf, der als ‘Umwelt’ der Funktion f aus der Objektebene per Addition hinzugefügt werden kann. Auf der Meta-Ebene ist erkannt worden, vor welchem Grund sich die jeweils auf der Objektebene betrachtete Form abhebt. Dieser Grund wird von Scheier mit Luhmann als Umwelt bezeichnet. Er ist der Horizont, in dem die jeweilige Form gesehen werden kann.

Nach meinem Eindruck treffen Luhmann und ihn in eigener Formalisierung darstellend Scheier einen Gedanken, der bei Spencer-Brown vorliegt: Der Schluss von einer Form auf ihren Grund. Das ist auf allen Ebenen möglich, auf denen es eine Differenz gibt: Der Schluss von der einen Seite einer Differenz auf das Bestehen von etwas, was auf der anderen Seite der Differenz liegt und auf den Grund, in dem beide eingetragen sind. Was hier als Umwelt im Ergebnis eines Re-entry bezeichnet wird, ist in meinem Verständnis bei Spencer-Brown bereits im Zeichen spencer brown call gegeben, das nur als eine in einen Grund eingeschriebene Form verstanden werden kann, und trifft noch nicht das Besondere, das Spencer-Brown mit dem Re-entry spencer brown modulator meint.

Alles, was Scheier über sein Verständnis des Re-entry schreibt, bleibt für mich dennoch gültig, wenn es in einen neuen Fragehorizont gestellt wird, der bei Spencer-Brown noch nicht ausgeführt ist und ein neues, klärendes Licht auf ihn wirft: Wenn das Ergebnis des Re-entry mit Saussure, Sartre und Derrida als Supplement und Simulakrum bezeichnet wird, verstehe ich das als die Frage, was mit einem gegebenen System geschieht, wenn es dort zu einem Re-entry kommt. Lacan und Zizek hatten gesagt, dass Einträge solcher Art eingenäht werden müssen und den Ort des Re-entry als Stepppunkt verstanden. Ich verstehe es so, dass Einträge dieser Art zu einem Erzittern des aufnehmenden Systems führen und daher – in der Begrifflichkeit von Heidegger – nur noch existenzial und nicht mehr kategorial beschrieben werden können. Der Begriff ‘Simulakrum’ scheint mir genau das anzusprechen.

Daher halte ich an dieser Stelle den Gebrauch des +-Zeichens für missverständlich. Das +-Zeichen ist ein tyisches Zeichen aus der Arithmetik, in der mit + und − gerechnet wird. Ein Re-entry kann nach Spencer-Brown nicht in einer Arithmetik, sondern nur in einer Algebra erfolgen. Als Zeichen schlage ich daher an dieser Stelle vor: ➰. Dieses Zeichen soll den Loop andeuten, der zum Re-entry führt.

Insgesamt berührt diese Frage eine Unsicherheit, die bereits bei Luhmann gegenüber Spencer-Brown zu erkennen ist. In Wissenschaft der Gesellschaft unterscheidet Luhmann deutlich zwischen Rekursivität und Reflexivität und legt nahe, dass es einen Re-entry erst bei Reflexivität geben kann. Reflexivität gibt es für ihn wiederum zwischen Beobachtern, die sich reflexiv aufeinander beziehen und miteinander kommunizieren. Das ist für ihn die Begründung seiner Soziologie des Wissens, die ohne kommunikativem Austausch zwischen Beobachtern nicht möglich ist.

»Von dieser Rekursivität wollen wir Reflexivität unterscheiden. Während mit Rekursivität nur die basale Selbstreferenz des autopoietischen Prozesses bezeichnet ist, zielt der Begriff der Reflexivität auf eine Unterscheidung höherer Ordnung. Als reflexiv wollen wir einen Prozeß bezeichnen, der auf sich selbst oder auf einen Prozeß gleicher Art angewandt wird. Rekursivität ist schon dann gewährleistet, wenn der Prozeß von eigenen Ergebnissen profitiert, Reflexivität nur dann, 'wenn er sich selbst zum Gegenstand eigener Operationen machen, also sich selbst von anderen Prozessen unterscheiden kann. Das, was autopoietisch als Einheit entsteht und reproduziert wird, kann dann auch über das laufend Erforderliche hinaus als eine aggregierte Einheit beobachtet werden.« (Luhmann Wissenschaft der Gesellschaft, 333f, bei Scheier zitiert Luhmanns Schatten, 77f).

In seinem 5 Jahre später gehaltenen Vortrag in Wien hat Luhmann diese Ansicht nach meinem Eindruck zumindest teilweise relativiert.

»Erst im Formenkalkül von George Spencer Brown kommt jedoch Zeit in einem ganz anderen Sinne ins Spiel. Im Übergang zu Gleichungen zweiter Ordnung, zu rekursiven Funktionen, zu einem re-entry der Formen in sich selber ergibt sich die Notwendigkeit, das operierende System mit zwei zusätzlichen Funktionen auszustatten: mit Gedächtnis und mit der Fähigkeit, innerhalb der benutzten Unterscheidungen zu oszillieren.« (Luhmann Die neuzeitlichen Wissenschaften und die Phänomenologie, 39f)

Beobachter

»An observer, since he distinguishes the space he occupies, is also a mark.« (LoF, 76)

Spencer-Brown will die kopernikanische Wende konsequent bis in die Logik nachvollziehen und eine Logik entwerfen, innerhalb derer der Standort des Beobachters und dessen Relativität dargestellt werden kann. Um das besser veranschaulichen zu können, wählt er neue Zeichen: Statt eines Hakens steht ein Kreis für die Grenze von Etwas. Wiederholung wird durch zwei nebeneinander liegende Kreise dargestellt, Verschachtelung durch ineinander liegende Kreise. In einer Präsentation von Kauffmann Laws of Form and the Logic of Non-Duality, 31 nehmen die beiden Axiome die Form an:

spencer brown kreise

Das ergibt zunächst keine neue Erkenntnis, doch lässt sich in der Darstellung mit Kreisen besser zeigen, dass unterschiedliche Beobachter die gleichen Verschachtelungen und Wiederholungen verschieden sehen. Was für den einen wie eine Verschachtelung aussieht, sieht für den anderen von einer anderen Position aus wie eine Wiederholung aus usf. Wird z.B. als ein Kreis der Äquator auf der Erde gewählt und als zweiter Kreis ein beliebiger Kreis, der sich vollständig auf der Südhalbkugel befindet, dann liegt dieser zweite Kreis für einen Beobachter von der Nordhalbkugel aus gesehen innerhalb des Äquators. Für einen Beobachter auf der Südhalbkugel, der sich zwischen dem Äquator und dem zweiten Kreis befindet, liegen beide Kreise dagegen nebeneinander (siehe hierzu LoF, 102f). In den folgenden Bildern ist mit einem blauen Quadrat der jeweilige Standort des Beobachters eingetragen und mit einem kleinen Quadrat, wo er den anderen Beobachter sieht:

spencer brown beobachter

2 Kreise aus unterschiedlichen Perspektiven
links: Ein Beobachter auf der Nordhalbkugel sieht die beiden Kreise ineinander und den zweiten Beobachter im Zwischenraum zwischen den Kreisen.
rechts: Ein Beobachter auf der Südhalbkugel sieht die beiden Kreise nebeneinander und den ersten Beobachter im größeren Kreis.

Jede Darstellung logischer Elemente und ihrer Verhältnisse und Operationen ist abhängig von der Perspektive des jeweiligen Beobachters, der sich zugleich ein Bild macht, wo sein Standort innerhalb der Logik liegt. Diese Art von beobachter-abhängigen Darstellungen bezeichnet Spencer-Brown als »experiments« (LoF, 70-75).

Die Einbeziehung eines Beobachters führt in eine neue Endlosschleife. Im ersten Schritt zeichnet ein Beobachter ein Bild, wie er von seinem Standort aus das System sieht. In einem zweiten Schritt trägt er in diesem Bild den eigenen Standort ein, d.h. den Ort, wo er sich innerhalb der Karte befindet. Jeder kennt das von in der Natur angebrachten Wanderkarten, die mit einem hervorgehobenen Punkt den Standort zeigen, an dem sich die Karte innerhalb der Landschaft befindet. Im dritten Schritt kann gefragt werden, von welchem Standort aus eine Karte gezeichnet werden konnte, die den Standort enthält. Er muss sich jenseits des Beobachters und seiner Umgebung befinden. Auch für diesen Standort kann wiederum eine Karte gezeichnet werden von einem noch weiter außerhalb liegenden Standort aus, usf.

In Strukturaufstellungen wird das ebenso deutlich. Der Patient stellt einen Repräsentanten seiner selbst in den Raum und umgibt ihn mit weiteren Figuren aus seinem sozialen System. Der Patient sieht sich jetzt gleichsam selbst in dem ihn umgebenden System. Der Therapeut sieht wiederum von außen, wie der Patient auf sein Selbstbild reagiert und mit ihm interagiert, wenn die aufgestellten Personen sich zu äußern beginnen und der Patient ihre Stellung verschiebt oder verändert. Ein Supervisor kann die Arbeit des Therapeuten beobachten usw. – In Streitgesprächen ist es ein beliebtes Spiel, wenn die streitenden Parteien wechselweise aus dem Clinch heraustreten wollen und den anderen von einer Meta-Ebene aus beurteilen. Das provoziert eine entsprechende Reaktion, bis ein Kreislauf ohne Ende eintritt. – In Versammlungen wird bisweilen der Ablauf gestört, wenn jemand beide Arme hebt und Verfahrensfragen stellt. Dann kann sich jemand anders melden und die Zulässigkeit von Verfahrensfragen in Frage stellen usf.

beobachterstandort     verfahrensdiskussion

Daher wird ein abschließender Schritt notwendig, mit dem gezeigt wird, dass die Ergebnisse unabhängig vom Standort der Beobachter gelten. Es muss Transformationsregeln geben, die einen Standort in einen anderen übersetzen. Welche Transformationen zwischen den verschiedenen Darstellungen gibt es und welche Eigenschaften haben sie? Das war bei Einstein die Frage nach den Lorentz-Transformationen, in der Ökonomie ist es die Frage nach den Währungs-Transformationen und für mich gibt es eine verwandte Frage nach den Wahrheits-Transformationen bei Wittgenstein.

Für mich ist daher die Frage nach dem Beobachter anders anzugehen als bei Luhmann und seinen Nachfolgern, und ich kann mir vorstellen, dass ausgehend von Spencer-Brown neues Licht auf diese Frage geworfen werden kann.

Ebenso wichtig ist die Frage nach dem untersten System, das Spencer-Brown mit (s−1) bezeichnet hat. Auch hier soll im Moment ein Hinweis auf die psychotherapeutischen Anwendungen genügen. Wie ist zu erklären, wenn die in einer Strukturaufstellung aufgestellten Personen zu reden beginnen und Aussagen über das von ihnen aufgestellte System zu treffen vermögen, obwohl sie außer der Aufstellung keine Information darüber erhalten haben? Offenbar gibt es auf der untersten Ebene, das ist in diesem Beispiel die Körperlichkeit (Leib) der Personen eine Wahrnehmungsebene, die in ihrer Offenheit und Unendlichkeit über alle bewussten Informationen hinausgeht. Das ist für mich ein Beispiel für die von Leibniz gemeinten kleinen Perzeptionen.

Luhmann scheint es dagegen vor allem darum zu gehen, dass erst aus der Kommunikation von Beobachtern untereinander Logik und Wahrheit entstehen. Wahr ist nicht mehr im klassischen Sinn dasjenige, was mit der Sache übereinstimmt, sondern sich in der Kommunikation der Beobachter etabliert.

»Mit dem re-entry bezeichnen wir ganz allgemein die Wiedereinführung einer Unterscheidung in den Bereich, den sie zu unterscheiden erlaubt. Ein Beispiel: Das Wissenschaftssystem ist nach der Systemtheorie von Niklas Luhmann auf der Grundlage der Unterscheidung wahr/nicht-wahr ausdifferenziert. Wenn man eine Wissenschaftstheorie erarbeitet, die die Verwendung dieser Unterscheidung wiederum mit der Unterscheidung wahr/nicht-wahr beobachtet, wird mit der Wissenschaftstheorie ein re-entry vollzogen. Bezüglich des Wissenschaftssystems befindet man sich in einer solchen Wissenschaftstheorie auf einer Meta-Ebene, da man nun die Frage nach der Wahrheit der Operation der Wissenschaft – also der Wahrheit der Unterscheidung wahr/nicht-wahr – stellen kann. Dadurch, dass es die gleiche Unterscheidung ist, die auf sich selbst angewendet wird, entsteht eine Situation, 'in der die Unterscheidung gleichzeitig dieselbe (als die besondere Unterscheidung der Operationen dieses Systems) und eine andere (als beobachtete Unterscheidung) ist'. (Claudio Baraldi, Giancarlo Corsi, Elena Esposito GLU: Glossar zu Niklas Luhmanns Theorie sozialer Systeme, Frankfurt am Main 1997: 152)« (Lau, 55f)

– Ergänzungen zur Strukturaufstellung

Varga von Kibéd hat die Methode systemischer Strukturaufstellungen weiter ausgebaut bis zu einer anonymisierten Form: Der Patient lässt sich auf der Bühne aufstellen und um ‘sich’ herum weitere Personen, die für ‘das Problem’, ‘den größten Widerstand’, ‘mögliche Hilfe’, ‘einen unbekannten Einflussfaktor’ usf. stehen. Nur der Patient weiß, was damit gemeint ist, und dennoch können die aufgestellten Personen überraschende Erkenntnisse liefern: Sie können sagen, ob noch etwas fehlt, welche Figur falsch steht u.ä. So können Probleme aufgestellt werden, die den sich aufstellenden Personen unbekannt (verdeckt) sind. Das schließt mögliche Beeinflussungen durch die Erzählungen des Patienten und Kommentare des Therapeuten noch weiter aus.

Den Familienaufstellungen wurde oft der Vorwurf gemacht, dass ihr Erfolg von einem Moderator mit charismatischen Fähigkeiten abhängt, der mithilfe von Suggestion das Verhalten der Gruppe steuert. Möglicherweise sind es auch verdeckte Gruppenprozesse, die die Ergebnisse in eine bestimmte Richtung drängen, Angst vor Selbstentblößung, Freude am Narzissmus, Lust am Fabulieren. Varga von Kibéd beruft sich ausdrücklich auf Hypnose-Techniken. Mir ist unbekannt, ob und in welcher Weise die Hypnose-Arbeit von Spencer-Brown in seine Arbeiten zur Logik eingeflossen sind.

Varga von Kibéd nannte bei einem Weiterbildungsseminar 2010 (veröffentlicht in YouTube) den Madhyamaka-Buddhismus und dort insbesondere das Gesetz des Bedingten Entstehens (pratitya-samutpada, das in wechselseitiger Abhängigkeit voneinander Entstehende) als eine Grundlage seiner Arbeit, die er mit den Ideen von Spencer-Brown zusammenbringen will. Er beruft sich auf Nagarjuna (2. Jh. n.Chr.) und Vasubandhu (4. Jh. n.Chr.) und dessen drei Prinzipien, die aus seiner Sicht den heutigen radikalen Konstruktivismus etwa von Heinz von Förster noch unterlaufen. Alles geht nicht nur auf eine ousia (einer allem anderen unterliegenden Substanz) zurück, wie Aristoteles gelehrt hatte, sondern auf drei Prinzipien: (a) das, was erscheint (b) das, wie es erscheint im jeweiligen Modell, (c) dasjenige an (a), das in (b) nicht erscheint und daher eine ewige Bewegung neuer Modelle auslöst.

Lässt sich die Methode der Systemischen Strukturaufstellung auf andere naturwissenschaftliche Gebiete übertragen? Evolutionstheorie: Stehen die einzelnen, zufällig entstandenen Mutationen wie die in einer Strukturaufstellung aufgestellten Personen auf einer Art Bühne und beginnen dank ihrer Körperlichkeit ihre Beziehungen untereinander zu erkennen, woraus sich etwas Neues ergibt? Das wäre ein neuartiger Versuch, den Verlauf von Emergenz und Evolution zu beschreiben und zugleich ein Ansatz, der Monadologie von Leibniz eine zeitliche Verlaufsform zu geben, wenn die Monaden als Einheiten auf einer Bühne verstanden werden und dort ihre Positionen verändern können.

Ein anderes Beispiel könnte die Quantenverschränkung sein: Stehen die verschränkten Quanten auf einer gemeinsamen Bühne und gelangen dank ihrer Körperlichkeit zu einer gemeinsamen, übergreifenden Bewegung, einem Tanz der Quanten?

Anhang

– Die Grenze bei Hegel und Spencer-Brown

Das Etwas ist durch eine Grenze vom Anderen getrennt. Die Grenze unterteilt bei Spencer-Brown den Raum in den durch Etwas markierten Bereich und den Bereich alles anderen.

Indikation Etwas Anderes

Das Etwas ist aber zugleich das Andere-an-im-selbst. Das Hinausgehen zum Anderen kehrt zurück. Dies ist bei Spencer-Brown der Re-entry.

Re-entry Etwas Anderes

Hegel betrachtet den Fall, wenn nicht nur von einem einzelnen Etwas, sondern von vielen Etwasen zum jeweils Anderen hinausgegangen wird. Für ihn geht die Wiederholung des Hinausgehens von verschiedenen Etwasen zu ihrem jeweils Anderen über in das Hinausgehen des Einen zu den Vielen entlang einer Reihe, auf der die Etwase angeordnet sind. Vorbild ist die Zahlenreihe der natürlichen Zahlen. Die Einen sind entlang der Reihe untereinander ähnlich. Zugleich gibt es Eigenschaften der Reihe selbst, entlang derer die untereinander ähnlichen Etwase verbunden sind.

Spencer-Brown betrachtet dagegen den Fall, wenn von einem markierten Bereich aus das Hinausgehen über die Grenze wiederholt wird. Wird nur das einzelne Hinausgehen wiederholt, verändert sich nichts, denn jedes neue Hinausgehen führt wieder zum gleichen Anderen. Kommt es jedoch zu einer unendlich häufigen Wiederholung, dann führt das zum Re-entry. Damit das möglich ist, muss die Wiederholung formal geregelt und selbstähnlich sein. Das führt im Ergebnis von der eindimensionalen Reihe zur Welle bzw. zum Gedächtnis: Beim Gedächtnis wird immer der gleiche Wert erreicht, bei der Welle (Oszillation) werden abwechselnd mindestens zwei unterschiedliche Werte erreicht. Dieser Gedanke ist nochmals aufzunehmen, wenn auch Hegel von Oszillationen (Pulsation) spricht.

Knotenlinie und Wahlverwandtschaft: Ist die Knotenlinie eine Folge von Grund-Bereichen, in die im Sinne von Spencer-Brown eine Form, d.h. eine Unterscheidung eines markierten Bereichs von seinem Anderen eingetragen wird? Jeder Grundbereich stabilisiert sich durch ein Re-entry, das ist eine innere zirkuläre Bewegung. (Das müsste näher ausgeführt werden. Wie stabilisieren sich chemische Prozesse oder Wärmeaustausch, und wann kippt das System um?) Jeder Zustand ist durch eine Grenze von einem anderen Zustand getrennt. Kommt es zur Grenzüberschreitung, so wird diese zurückgekoppelt und verstärkt als Rückkoppelung nochmals den Zustand.

Der Re-entry im Sinne von Spencer-Brown kann in der Ausdrucksweise von Hegel als Wechselspiel von Kontinuation und Umkehr verstanden. In der Systemtheorie wird dies beschrieben als Entkopplung und Kopplung.

Re-entry Etwas Anderes

Identität und Verschiedenes: Jedes A ist von der Gesamtheit aller Nicht-A getrennt. Es gibt jedoch ein Hinausgehen zu den von A Verschiedenen, der Gesamtheit der Nicht-A-s und ein Zurückkehren. Erst durch die Bewegung von beiden wird die Identität von beiden hergestellt.

Re-entry Identitaet

Gegensatz und Widerspruch: A und −A bilden einen Gegensatz. Sie sind durch viele Beziehungen miteinander verbunden. Jede Beziehung geht zum anderen hinaus und kehrt zurück, wodurch der Gegensatz gefunden wird.

Lässt sich der Übergang vom Gegensatz und dem Widerspruch zum Grund verstehen im Sinn von Spencer-Browns Einführung der imaginären Werte? Ist der Grund das Imaginäre? Sind der Grund und die Ebene, auf der der Gegensatz liegt, voneinander auf imaginäre Weise getrennt, die nach Spencer-Brown das Gedächtnis und die Oszillation hervorbringt und mit ihnen die Zeit?

Der Grund ist zunächst der Grund, in den diese Figur eingeschrieben ist (in-formiert). Ist von hier ausgehend der Begriff der Information zu entwickeln, und warum kennt Hegel diesen Begriff nicht? Ist der Grund mit Hegel der Rückverweis auf die Seinslogik und dort die Bewegung von Kontinuation und Umkehr?

Wie verändert sich der Grund, wenn er erst einen Re-entry ermöglicht und dann einen Re-entry aufnimmt? Wird der Re-entry »vernäht«, und ist die Vernähung zu spüren? Siehe hierzu Scheier.

– Syntax und Semantik

Bei Hegel erfolgt in der Logik der Reflexionsbestimmungen ein Übergang von der Semantik zur Syntax der Sprache (siehe seine Anmerkung in der Wissenschaft der Logik zum Satz der Identität, HW 6.41-45).

Mit dem Identitätssatz ›A = A‹ wird das Sprachspiel fundamental verändert: Aus semantischen Sätzen über etwas wird ein Beispiel-Satz, an dem die Struktur (Syntax) der Sprache aufgezeigt wird, also ein selbstbezüglicher Satz der Sprache über sich. Der Satz sagt jedoch nicht etwas Inhaltliches über andere Sätze, sondern an seiner Form wird etwas demonstriert. Der Satz ›A = A‹ liefert offensichtlich kein neues Wissen, sondern erscheint geradezu sinnlos und völlig überflüssig. Aber  an diesem Satz  wird etwas deutlich über die Syntax (und damit das Wesen) aller Sätze. (Collmer beschreibt das in angedeuteter Mathematik kategorientheoretisch, wenn er vom Einsatz des »Funktor 'selbst'« spricht und mit dem Funktor die Meta-Ebene erreicht; Collmer, 125.)

Wird das leere ›A ist A‹ beliebig erweitert in ›A ist A ist A ist A ist …‹, ergeben sich aus dieser ins Leere laufenden Bewegung verborgene weitere Bedeutungen: Es kann nach dem Vorbild von die Rose ist eine Rose ist eine Rose (Gertrude Stein Sacred Emily, 1913) »ein artifizielles Muster« im Sinne des Dadaismus sein, bei endloser Wiederholung eine Verschwendung von Ressourcen an Papier oder Speicherkapazität, die irgendwann an die »Macht des Faktischen« stößt und abgebrochen werden muss oder eine Bewegung des Verinnerlichen und der Versunkenheit in einem Gebet (Collmer, 126).

Die Reflexionsbestimmungen sind für Hegel Sätze, jedoch nicht im Sinne von Antworten auf Was-Fragen (›Was ist die Identität‹), sondern sie zeigen an sich selbst (selbstbezüglich) eine bestimmte Struktur, die allen Sätzen zugrunde liegt. Es sind keine prädikativen Aussagesätze, sondern Sätze auf einer abstrakteren Ebene (Collmer, 129).

Hegel hat die transzendentale Logik von Kant radikalisiert, und sein Wechsel von Semantik und Syntax vollzieht eine Wende, die später im 20. Jahrhundert sowohl von Wittgenstein wie von Heidegger in einem jeweils anderen Kontext neu formuliert wurde, siehe hierzu auch die Diskussion von Carnap und Gödel über die Syntax der Sprache.

Scheier sieht diesen Wechsel in Ästhetik der Simulation in einem größeren Horizont, von dem aus die kulturellen und philosophischen Veränderungen der industriellen Moderne im 19. Jahrhunderts überschaubar werden. Franz Schubert hat in seinen späten Werken nicht mehr einfach neue zeitliche, musikalische Abläufe komponiert, sondern versucht, mit seinen Werken den Verlauf der Zeit an sich darzustellen (siehe hierzu im Beitrag Von Schubert zu Klimt – die Verräumlichung der Musik den Abschnitt über die Klaviersonate in c-Moll D958, ein Finale an den Grenzen der Zeit, mit Berufung auf Peter Gülke Franz Schubert und seine Zeit, Laaber 1991, wobei der Titel bewusst doppeldeutig gewählt ist). Ein anderes Beispiel ist die Poetik von Stéphane Mallarmé. Er suchte nach dem »Gesang unter dem Text«, der »'Musik' in den Buchstaben«, den »Kraftlinien der fließenden, heterogenen, doch semiotisierbaren chora«, dem »der Ort der Sprache«, in den hinein die Arbeit am Text erfolgen kann (Kristeva Die Revolution der poetischen Sprache, Frankfurt am Main, 1978, S. 41, 72, 184, 205).

Siglenverzeichnis

AUM = The G. Spencer-Brown – AUM-Conference 1973, Esalen 1973; Link

HW = Georg Wilhelm Friedrich Hegel: Werke in 20 Bänden. Auf der Grundlage der Werke von 1832-1845 neu ediert. Red. E. Moldenhauer und K. M. Michel. Frankfurt/M. 1969-1971; Link

LoF = George Spencer-Brown: Laws of Form, New York 1972 (Julian Press) [1969]; Link

SWH = Tatjana Schönwälder-Kuntze, Katrin Wille, Thomas Hölscher: George Spencer Brown, Wiesbaden 2009 [2004]

Literatur

Dirk Baecker (Hg.): Kalkül der Form, Frankfurt am Main 2016 [1993]

Dirk Baecker: George Spencer-Brown wird 90; catjects

Ulrich Blau: Die Logik der Unbestimmtheiten und Paradoxien, Heidelberg 2008

Thomas Collmer: Hegels Dialektik der Negativität, Gießen 2002

Louis H. Kauffman und Francisco J. Varela: Form Dynamics
in: Journal of Social and Biological Structures 1980 3, S. 171-206

Louis H. Kauffman: Laws of Form – An Exploration in Mathematics and Foundations, Rough Draft

Louis H. Kauffman: Laws of Form and the Logic of Non-Duality, San Rafael 2009; Link

Felix Lau: Die Form der Paradoxie, Heidelberg 2008

Niklas Luhmann: Beobachten
in: Luhmann: Die Wissenschaft der Gesellschaft, Frankfurt 1992 [1990], S. 68-122

Niklas Luhmann: Die neuzeitlichen Wissenschaften und die Phänomenologie, Wien 1996

Warren St. McCulloch: Heterarchy and Hierarchy; Link

Martin Rathgeb: George Spencer Browns Laws of Form zwischen Mathematik und Philosophie, Siegen 2016; Link

Claus-Artur Scheier: Ästhetik der Simulation, Hamburg 2000

Claus-Artur Scheier: Luhmanns Schatten, Hamburg 2016

The Telegraph: George Spencer-Brown, polymath who wrote the landmark maths book Laws of Form – obituary; Telegraph vom 13.9.2016

Franco Volpi: Der Status der existenzialen Analytik (§§ 9-13)
in: Thomas Rentsch (Hg.): Martin Heidegger - Sein und Zeit, Berlin 2001, S. 29-50

Bildnachweis des Titelbildes: Spencer-Brown Laws of Form S. 68

 


© tydecks.info 2017