Walter Tydecks

 

Spencer-Brown Gesetze der Form

– Einführung und weiterführende Ideen

Reentry
Schaltkreis, der die Frequenz einer Welle halbiert

Beitrag für das Philosophische Colloquium der Akademie 55plus Darmstadt am 13. und 27. März 2017 (wesentlich erweiterte Fassung, Version 22.2.2019)

 

 

Download als pdf-Datei

Einleitung

George Spencer-Brown (1923-2016) kommt aus England und stammt aus der gleichen Grafschaft Lincolnshire wie Newton. Er hat schon früh parallel und übergreifend an Fragen der Mathematik, Ingenieurstechnik und Psychologie gearbeitet, so im 2. Weltkrieg als Funker, Nachrichtentechniker und Hypno-Schmerztherapeut bei der Royal Navy, 1950-51 am Trinity College Cambridge bei Ludwig Wittgenstein (1889-1951), ab 1960 mit dem Mathematiker und Philosophen Bertrand Russell (1872-1970), auf dem Gebiet der Psychotherapie und Kindererziehung mit Ronald D. Laing (1927-1987), bei dem er an einer Therapie teilnahm und ihn umgekehrt in Mathematik unterrichtete, und daneben war er Schriftsteller, Liedermacher, Schachspieler, Spieleerfinder, Segelflieger (mit zwei Weltrekorden), also eine durchaus ungewöhnliche Persönlichkeit. 1959-61 Chief Logic Designer bei Mullard Equipment, 1963-64 Advisor bei British Rail, 1963-1968 Projekte an Mathematischen Instituten in England, 1968-69 Vollzeitbeschäftigung als Psychotherapeut mit Hypnose-Techniken, später nur noch in Teilzeit. Ab 1976 befristete Professorentätigkeiten an Universitäten in Australien und USA. 1977-78 Beratung für Xerox. In späteren Jahren verarmte er und zog sich zurück, konnte jedoch auf dem Grundstück des Marquess of Bath leben, einem früheren Schüler von ihm. – Gesetze der Form erschien 1969 dank Förderung durch Bertrand Russell. Durch eine positive Rezension von Heinz von Foerster (1911-2002) gewann es eine gewisse Aufmerksamkeit, ist aber dennoch in der Mathematik, Informatik und Philosophie bis heute im Grunde ein Randphänomen geblieben, das kaum jemandem bekannt ist. In Deutschland hat vor allem der Soziologe Niklas Luhmann (1927-1998) die Ideen von Spencer-Brown aufgegriffen und sah in ihnen einen neuen Zugang zur Systemtheorie, der aus seiner Sicht eine Befreiung von der traditionellen Philosophie ermöglicht. Eine erste Einführung in die Logik gibt es bei Wikipedia. Louis Kauffman (* 1945), Uni Chicago, hat den Ansatz weiter ausgebaut. Es gibt Bezüge zur Informatik (von Foerster), Kybernetik (Wiener), Antipsychiatrie (Laing), Anthropologie (Bateson), Psychologie (Piaget) und Kommunikationswissenschaft (Watzlawick), Systemwissenschaft (Luhmann, Baecker), selbstreferenzielle Systeme (Maturana, Varela). – Im persönlichen Umgang soll Spencer-Brown eher schwierig gewesen sein, was wohl damit zusammenhängt, dass er – wie ich meine zurecht – seine Arbeiten auf einem Rang mit denen von Aristoteles und Frege gesehen hat und über die fehlende Anerkennung enttäuscht war.

Entsprechend gibt es nur wenig Sekundärliteratur. Die Texte von Spencer-Brown sind außerordentlich dicht geschrieben. Die Gesetze der Form umfassen im Haupttext 77 Seiten, die mit einigen Vorworten und Eigenkommentaren ergänzt wurden. 1973 fand am Esalen-Institut an der kalifornischen Pazifikkünste eine Tagung statt, an der Spencer-Brown, Bateson, von Foerster u.a. teilnahmen (American University of Masters Conference, abgekürzt AUM-Konferenz). Damit sind die Quellentexte bereits aufgezählt. Von Dirk Baecker erhielt ich ein 1992 von Spencer-Brown geschriebenes, unveröffentlichtes Typoscript An Introduction to Reductors. In Deutschland gibt es in Nachfolge von Luhmann an der anthroposophisch geprägten Privatuniversität Witten/Herdecke im Ruhrgebiet sowie in Heidelberg und München Kreise, die sich regelmäßig mit Spencer-Brown beschäftigen. Als Sekundärliteratur habe ich daher von Luhman das komplexe Kapitel über Beobachtung aus seinem 1990 erschienenen Werk Wissenschaft der Gesellschaft herangezogen, in dem er seine Position zu Spencer-Brown darstellt, darauf aufbauend einen von seinem Schüler Dirk Baecker 1993 herausgegebenen Sammelband Kalkül der Form, der unter anderem auch die Rezension von Heinz von Foerster enthält, sowie den von Luhmann 1995 in Wien gehaltenen Vortrag Die neuzeitlichen Wissenschaften und die Phänomenologie, in dem er seine philosophische Position gegenüber Husserl und Spencer-Brown ausführt. Claus-Artur Scheier hat 2016 in Luhmanns Schatten dessen Ansatz mit der neueren französischen Philosophie in Verbindung gebracht und auf eine eigene Weise formalisiert. In Heidelberg erschien 2005 eine kurze Einführung in die Logik von Spencer-Brown durch Felix Lau und in München wesentlich ausführlicher 2004 eine 2009 erweiterte Einführung durch Tatjana Schönwälder-Kuntze, Katrin Wille, Thomas Hölscher. Sie kommen aus dem Umfeld von Matthias Varga von Kibéd (* 1950), der wiederum Schüler des Logikers Ulrich Blau (* 1940) ist. Blau hat Standardbücher über neue Richtungen der Logik verfasst, in denen er jedoch auf Spencer-Brown nicht eingeht. Varga von Kibéd hat sich fernöstlichen Traditionen zugewandt und ist vor allem aktiv geworden in der Gründung, Einführung und Vermarktung neuer Methoden der Systemischen Strukturaufstellung, die sich im weitesten Sinn auf Spencer-Brown berufen. Zusammenfassend kann gesagt werden, dass Spencer-Brown vor allem auf die Theorie selbstreferenzieller Systeme und auf neue Methoden der systemischen Therapie Einfluss gewonnen hat, jedoch in der traditionellen Philosophie, Mathematik und Informatik weitgehend ignoriert wird und unbekannt geblieben ist.

Dieser Beitrag ist auch für mich eine erste Annäherung und Einführung und kann nur versuchen, sich weitergehenden philosophischen Fragen zu nähern. Ich vermute jedoch, dass in seinem Ansatz ein Potential enthalten ist, das noch bei weitem nicht erschöpft ist. Einige weiterführende Gedanken finden sich im Beitrag Freiheit des Grundes.

Motive

In seiner äußerst selbstreflektierten Arbeit betont Spencer-Brown, dass es keine Unterscheidung ohne ein bestimmtes Motiv gibt (»There can be no distinction without motive«, LoF, 1). Das scheint mir der beste Zugang zu diesem ungewöhnlichen Werk zu sein. Gerade für seine Arbeit sind die Motive besonders wichtig, denn im Weiteren ist schrittweise vieles von dem zu verlernen, was bisher in Mathematik und Logik gewohnt war.

Lügner-Paradoxon und negative Selbstbezüglichkeit

Das erste Motiv ist sicher die Beschäftigung mit dem Lügner-Paradox ›Dieser Satz ist falsch‹. Mit ihm waren die logischen Grundlagen der Mathematik und damit aller Naturwissenschaft elementar in Frage gestellt. Das löste eine tiefe Verunsicherung aus, die heute – seit wir uns daran »gewöhnt« haben – kaum mehr vorstellbar ist. Denn zur gleichen Zeit waren mit dem Niedergang aller überlieferten religiösen und mythischen Glaubensvorstellungen die Mathematik und die Naturwissenschaft zur einzigen Kraft geworden, die Identität und Sicherheit zu geben versprach. Wenn nun auch ihre Grundlagen erschüttert werden, droht jeder Halt verloren zu gehen. Robert Musil hat das 1902 in Die Verwirrungen des Zöglings Törleß wunderbar gestaltet. Jeder, der zwischen 1900 und 1980 Mathematik studierte, stieß nahezu zwangsläufig auf die Russellschen Antinomien und wurde in eine Krise gestoßen vergleichbar der skeptizistischen Herausforderung an die Philosophie. Erst der lang anhaltende ökonomische Aufschwung in den westlichen Ländern nach 1945 hat zumindest für eine Weile alle Bedenken und Fragen dieser Art in den Hintergrund drängen können und blanken Pragmatismus und gewöhnlichen Materialismus als neue Werte etabliert. Welche Gefahr soll von einer solchen Antinomie ausgehen, wenn doch drum herum die Anwendungen der gleichen Wissenschaft so erfolgreich sind? In solchen Zeiten haben die Fragen eines Spencer-Brown kaum Aussicht auf Resonanz, drohen sie doch die Fragen wieder aufzurühren, die gerade mühsam unter den Teppich gekehrt worden waren.

Das Lügner-Paradoxon ist das berühmteste Beispiel für negative Selbstbezüglichkeit: Der Satz bezieht sich auf sich selbst, und er verneint sich. Das führt zum Paradox: Wenn seine Aussage richtig ist, ist er falsch, und wenn seine Aussage falsch ist, ist er richtig.

Dies Paradox kann in die unterschiedlichsten Formen gebracht werden, was Ulrich Blau bis in die äußersten Verästelungen getrieben hat mit dem Ergebnis, dass es in der gewohnten Logik nichts gibt, was aus diesem Paradox herausführt.

Der Satz ist keineswegs nur eine logische Spielerei, die jeder Jugendliche irgendwann im Alter von 12 bis 16 Jahren durchmacht und damit die IV. Stufe des kognitiven Denkens (das formale Denken) im Sinne von Jean Piaget (1896-1980) erreicht, sondern ist in der ursprünglichen Formulierung »ein Kreter sagt, dass alle Kreter lügen« von mythologischer Bedeutung, als die Kreter mit der Angst fertig werden mussten, dass sie auf der Insel Kreta Gott getötet haben könnten. In der Philosophie hat er bei Hegel systematische Bedeutung erhalten und gilt als das entscheidende Merkmal der dialektischen Methode.

Bertrand Russell war anfangs Hegelianer, konnte sich aber mit den spekulativen Sätzen Hegels über den Widerspruch nicht zufrieden geben. Für ihn musste es auch eine formale Lösung geben, die den Anforderungen der traditionellen Logik standhält. Das ist ihm mit dem Verbot selbstbezüglicher Sätze nur negativ gelungen, und er war daher begeistert, als Spencer-Brown eine völlig neue, formale Lösung präsentieren konnte.

Imaginäre Zahlen

Spencer-Brown suchte einen Ausweg nach dem Vorbild der imaginären Zahlen. Die imaginären Zahlen sind innerhalb der Mathematik ein eigenartiger, geheimnisvoller Fremdkörper. Schon der Name imaginär ist völlig untypisch für das übliche mathematische Denken. Sind diese Zahlen imaginär wie ein bloßer Traum, oder sind sie bloße Bilder, virtuelle Objekte des Denkens, entsprungen aus der Imagination (Einbildungskraft, Phantasie) der Seele? Was zeichnet eine mathematische Imago gegenüber einer psychologischen Imago aus? Fragen dieser Art haben Spencer-Brown nach seiner Therapie bei Laing sicher sehr bewegt.

Der Ausdruck imaginäre Zahl geht auf Descartes und Euler zurück. Für Mathematiker ist es ein in sich widerspruchsfreier Formalismus, den Zahlenraum zu erweitern, und für Ingenieure und Physiker ist es ein überaus hilfreiches Werkzeug, komplexe Gleichungen zu vereinfachen, auch wenn sie in der Regel kaum die Frage beantworten können, warum das mit den imaginären Zahlen möglich ist. Als Nachrichtentechniker war Spencer-Brown zweifellos mit dieser Bedeutung vertraut und hatte gelernt, wie Ingenieure und Naturwissenschaftler einfach mit solchen Zahlen rechnen, weil das gut geht und sich bewährt, ohne nach den mathematischen Grundlagen zu fragen.

Im Vorwort zur ersten amerikanischen Ausgabe von Laws of Form hat er 1972 eine verblüffende Beziehung der imaginären Zahlen zur Frage der Russellschen Antinomie gesehen. Russell und Whitehead wollten die drohende Antinomie in der Typen-Theorie mit dem Verbot selbstbezüglicher Elemente ausschließen. Das hielt Spencer-Brown für einen Fehler. »Mistakenly, as it now turns out.« (LoF, ix) Spencer-Brown berichtet, dass er Russell 1967 getroffen und ihm gezeigt hat, wie er ohne diesen Ausschluss arbeiten kann. »The Theory was, he said, the most arbitrary thing he and Whitehead had ever had to do, not really a theory but a stopgap, and he was glad to have lived long enough to see the matter resolved.« (LoF, x)

Um innerhalb der Arithmetik eine negative Selbstbezüglichkeit zu definieren, ist eine Gleichung aufzustellen, in der eine Variable x als ihr eigener Kehrwert auftritt und mit dem Minus-Zeichen negiert wird:

Gleichung (1)

Mit dieser Gleichung ist die negative Selbstbezüglichkeit formalisiert: Der Kehrwert steht für den Selbstbezug, das Minuszeichen für die Negation.

Diese Gleichung sieht auf den ersten Blick ebenso harmlos aus wie wenn jemand zum ersten Mal den Satz hört ›dieser Satz ist falsch‹. Jeder hält das im ersten Moment für eine gewöhnliche Aussage über einen anderen Satz (einer sagt, ›der Himmmel ist grün‹ und ein anderer antwortet darauf ›dieser Satz ist falsch‹), bis dessen innere Sprengkraft durchschaut wird, wenn er sich auf sich selbst bezieht. So sieht auch Formel (1) auf den ersten Blick nicht ungewöhnlich aus. Das in ihr enthaltene Paradox wird sichtbar, wenn für x der Wert 1 oder der Wert −1 eingesetzt wird:

Gleichung (2)

1 und −1 sind die einfachst-möglichen Zahlen, und sie zeigen, dass es für diese Formel keine natürliche Zahl als Lösung gibt. Mit ihr hat Spencer-Brown das Paradox der negativen Selbstbezüglichkeit innerhalb der Arithmetik nachgebildet. (In der tradionellen Logik und der analytischen Philosophie geschulte Wissenschaftler bestreiten allerdings, dass es zulässig ist, auf diese Weise das ursprünglich mengentheoretisch formulierte Russelsche Paradoxon zu transformieren und eine verblüffende Lösung zu finden. So habe ich es beim Wittgenstein-Symposium 2018 in Kirchberg am Wechsel erlebt.)

Whitehead und Russell hatten nur den Ausweg gesehen, Fragen dieser Art mit dem unbestimmten, dritten »Wahrheitswert« ‘bedeutungslos‘ (meaningless) zu versehen und auszuschließen. Während mit diesem Wahrheitswert logisch und mathematisch nicht operiert werden kann, kann eine Lösung mit den imaginären Zahlen gefunden werden, die das Rechnen mit einem zusätzlich Wahrheitswert erlaubt. Die imaginären Zahlen stehen wie die y-Achse senkrecht zur Zahlenachse. Ihre Einheit ist die neu eingeführte Zahl i. Sowohl i wie auch −i sind Lösungen von Gleichung (1).

Gleichung (3)

Darum geht es Spencer-Brown. Er fragt sich, ob nach dem Vorbild der imaginären Zahlen in der Arithmetik auch imaginäre Zahlen in der Logik eingeführt werden können mit weitreichenden Folgen für das logische Denken.

»What we do in Chapter 11 is extend the concept of Boolean algebras, which means that a valid argument may contain not just three classes of statement, but four: true, false, meaningless, and imaginary.« (LoF, xi)

Die traditionelle Logik ist zugleich zu einfach und zu komplex

Diese Beispiele zeigen bereits den neuen Zugang zur Logik bei Spencer-Brown. Er war mit der überlieferten Logik völlig unzufrieden. Die ist für ihn banal, um nicht zu sagen kindisch, und zugleich unnötig kompliziert.

(1) Die traditionelle Logik ist einerseits zu einfach, geradezu kindisch.

Wer einmal Lehrbücher der Logik gelesen hat mit ihren Beispielen, versteht was Spencer-Brown meint. Eine typische logische Aufgabe lautet: »Welche der folgenden Behauptungen ist wahr: Einige Äpfel sind Bananen. Alle Äpfel sind Bananen. Einige Bananen sind keine Äpfel. Manche Bananen sind Äpfel.« Die richtige Lösung ist versteckt in dem Satz »Einige Bananen sind keine Äpfel.« Darauf kommt niemand gleich, weil das niemand im alltäglichen Leben so sagen würde, denn jeder würde spontan diesen Satz so verstehen, dass er implizit auch die falsche Aussage enthält, dass es einige Bananen gibt, die Äpfel sind. Aber formal ist dieser Satz richtig, und das soll eine Aufgabe wie diese zeigen. Sie soll ein abstraktes Verständnis für Logik lehren, das unabhängig ist von einem inhaltlichen Vorverständnis und Sprachgefühl.

Ist Logik nichts weiter als die Suche nach witzigen Logeleien, über die jeder schmunzeln muss? Das kann beliebig ausgebaut werden: Ist ein Satz wie »die Zahl 2 ist gelb« wahr oder falsch, und was kann aus diesem Satz gefolgert werden? Was ist von dem Schluss zu halten: »Wenn John keine Kinder hat, ist sowohl die Aussage wahr, ›Alle Kinder von John schlafen‹ wie auch die konträre Aussage ›Keins von Johns Kindern schläft‘.« Ist damit der Satz des Widerspruchs widerlegt? Die analytische Philosophie denkt sich nach diesem Muster bis heute immer neue Beispiele aus und schlägt sich seit Jahrzehnten mit Fragen dieser Art herum, obwohl bereits Herbert Marcuse diese Art zu denken in den 1960ern verspottet hatte (Der eindimensionale Mensch) und darin im Grunde eine bestimmte Art der Erziehung zur Dummheit sieht, die leider auch an den Universitäten nahezu alle philosophischen Fakultäten dominiert, an denen Philosophen dieser Richtung bevorzugt eingestellt werden. Offenbar sollen in großem Stil an den Universitäten Menschen und vor allem Lehrer ausgebildet werden, die mit dieser Art von Logik in den Schulen Unterricht erteilen können.

Aufgrund seiner Ausbildung in Logik hatte Spencer-Brown eine Stelle bekommen, um Schaltkreise zu programmieren, und merkte schnell:

»The logic questions in university degree papers were childishly easy compared with the questions I had to answer, and answer rightly, in engineering. We had to devise machinery which not only involved translation into logic sentences with as many as two hundred variables and a thousand logical constants--AND's, OR's, IMPLIES, etc.--not only had to do this, but also had to do them in a way that would be as simple as possible to make them economically possible to construct--and furthermore, since in many cases lives depended upon our getting it right, we had to be sure that we did get it right.« (AUM, Session One)

Im Ergebnis konnten er und die anderen Entwickler sich zwar allgemein auf ihr logisches Denkvermögen verlassen, programmierten aber drauf los und gaben es sehr schnell auf, ihre Programme systematisch gemäß den Regeln der gelernten Logik zu entwerfen und zu überprüfen, sondern waren zufrieden als sie sahen, dass die von ihnen programmierten Schaltkreise funktionieren, ohne das logisch erklären oder beweisen zu können. So geht es nach meiner Erfahrung den meisten Programmierern, und es hinterlässt dennoch ein Unbehagen, dass es eine andere Art von Logik geben müsste, die der Praxis des Programmierens näher kommt und hilfreicher ist. (Wer hat sich als Programmierer nicht mit Methoden wie z.B. dem logisch aufgebauten Programmablaufplan herumgeschlagen und es irgendwann fallen gelassen, weil der Aufwand, Programmerweiterungen in Methoden dieser Art nachzubilden größer ist als die Programmierung und das Austesten. Bei komplexen Programmen sind logische Methoden dieser Art komplizierter als der Programmtext selbst, und in der Realität hat sich für Dokumentationen ein übersichtlicher Pseudocode durchgesetzt, der die Algorithmen in einer einfach zu lesenden Sprache darstellt.)

(2) Zugleich ist die Logik viel zu komplex.

Fast gebetsmühlenartig wird am Anfang jeder Logik- und Mathematik-Vorlesung ein großer Aufwand mit der Einführung unterschiedlichster Zeichen getrieben, obwohl die jeder intuitiv versteht. Das sind eigene Zeichen für Konstanten, Variablen, logische Operationen wie ∧, ∨, ¬ und Quantoren wie ∀ und ∃. Die unterschiedlichen Professoren und Lehrbücher überbieten einander darin, den erforderlichen Begriffsapparat so abstrakt wie möglich einzuführen. Ein Beispiel ist die online verfügbare Vorlesung Endliche Modelltheorie von Geschke:

»1.1. Strukturen. Ein Vokabular symbol ist eine endliche Menge bestehend aus Relationssymbolen P, Q, R, …, Funktionssymbolen f, g, h, … und Konstantensymbolen c, d, … Jedes Relations- und Funktionssymbol trägt eine natürliche Zahl ≥ 1, seine Stelligkeit.
   Fixiere ein Vokabular symbol. Eine Struktur symbol für symbol (eine symbol-Struktur) ist eine Menge A zusammen mit
   (S1) Relationen symbolsymbol ⊆ An für jedes n-stellige Relationssymbol symbolsymbol,
   (S2) Funktionen symbolsymbol: Am → A für jedes m-stellige Funktionssymbol symbolsymbol und
   (S3) Konstanten symbolsymbol ∈ A für jedes Konstantensymbol symbolsymbol.
   Oft identifiziert man eine Struktur symbol mit ihrer unterliegenden Menge A, schreibt also A anstatt symbol.« (Geschke, S. 1)

Wer Mathematik und Logik studiert hat, versteht, warum auf solche Weise eine Vorlesung eingeleitet wird, und doch hat jeder das Gefühl, dass an dieser Art an die Sache heranzugehen etwas nicht stimmen kann. Am Ende wird versucht, alles deduktiv aus einer einzigen Lehre abzuleiten. Das gelingt nicht. Stattdessen scheint sich heute die Ansicht durchgesetzt zu haben, dass am Anfang mehr oder weniger gleichberechtigt die Mengenlehre, die Modelltheorie und die Theorie formaler Sprachen stehen. Die Mengenlehre kommt nicht aus ohne eine formale Sprache, die formale Sprache nutzt die Mengenlehre, jede Lehre kann als ein Modell verstanden werden, das aber wiederum wie an diesem Beispiel zu sehen einer formalen Sprache und mengentheoretischer Operationen bedarf. Im Ergebnis entsteht der Eindruck, dass es nicht gelungen ist, die unterschiedlichen Lehren auf ihre einfachsten Elemente zurückzuführen, und die große Abstraktheit und der komplexe technische Apparat im Grunde eine Flucht sind, um dieser Frage auszuweichen.

Für Spencer-Brown ist diese ganze Rchtung ein Irrweg. Seine erste Grundentscheidung ist daher, eine wesentliche Reduktion vorzunehmen und damit einen Bereich zu eröffnen, der als Proto-Logik oder als Proto-Mathematik bezeichnet werden kann. Er versteht seine Herangehensweise als »perfect continence« (LoF, 1), eine Mäßigkeit und Selbstkontrolle bei Klärung der logischen Grundlagen.

Logik und Zeit

Die klassische Logik gilt unabhängig von der Zeit. Mit ihr werden nur Aussagen getroffen und verknüpft, die für sich zeitlos gültig sind. Eine Tatsache oder eine Beobachtung bleibt immer bestehen, selbst bei Sätzen, die sich auf einen bestimmten Zeitpunkt beziehen. Ein Satz wie ›Am 24.2.2017 sind in Bensheim die ersten Krokusse des Jahres 2017 aufgeblüht‹ gilt auch dann noch, wenn die Krokusse längst wieder verblüht sind. Er gilt selbst dann, wenn er sich als eine Täuschung erweist, denn dieser Satz ist für sich genommen eine Gegebenheit meines Denkens. So hatte Wittgenstein 1921 den Tractatus logico-philosophicus begründet: »1 Die Welt ist alles, was der Fall ist. [...] 1.13 Die Tatsachen im logischen Raum sind die Welt.« Für ihn ist die Welt die Gesamtheit aller Protokollsätze. Spencer-Brown hatte 1950-51 miterlebt, wie Wittgenstein über diesen Ansatz hinausgehen wollte. Es ist zu wenig, die Logik auf Sätzen dieser Art und ihren Verknüpfungen zu begründen.

Nun ist die Logik dabei nicht stehen geblieben. So wurde 1954 von Paul Lorenzen (1915-1994) die operative Modallogik entwickelt, mit der die Unterschiede von Möglichkeit, Wirklichkeit und Notwendigkeit logisch erfasst und formalisiert werden sollen. Der technische Apparat ist so weit wie möglich angepasst an die traditionelle Logik. Diese Richtung hat in Verbindung mit der Quantenlogik einen gewissen Aufschwung genommen. – Auch in der Modallogik fehlt noch die Berücksichtigung der Zeit. Das wurde zur gleichen Zeit in den 1950ern mit einer Temporalen Logik zu lösen versucht. Wer sich die bisher vorliegenden Ergebnisse sowohl der Modallogik wie der temporalen Logik ansieht, wird verstehen, warum das nicht das ist, was Spencer-Brown suchte. Er ging auf einem ganz anderen Weg von der praktischen Erfahrung aus, dass beim Programmieren das Gleichheitszeichen kontextabhängig als Zuweisung oder als Übereinstimmung verstanden wird.

Auf diesen Aspekt hat Elena Esposito hingewiesen (Esposito in Baecker Kalkül der Form, 108-110). Bei Computer-Anweisungen ist es weder ein Widerspruch noch ein Paradox, wenn geschrieben wird:
(4a)    i = i + 1
(4b)    a = f(a)

In der Zuweisung (4a) steht das Zeichen i anders als in mathematischen Gleichungen nicht für eine Variable, für die zwar eine beliebige Zahl eingesetzt werden kann, die dann aber im Verlaufe der Rechnung festzuhalten ist, sondern für einen Speicherplatz, dessen Inhalt im Verlaufe der Programm-Ausführung verändert werden kann. Bei beiden Zuweisungen liegt das Ergebnis auf der linken Seite zeitlich später als die Rechenoperation auf der rechten Seite. Die Zuweisung ›i = i + 1‹ ist eine der am häufigsten verwendeten Programmierzeilen, wenn in einer Schleife im Verlaufe einer zeitlichen Wiederholung mitgezählt wird, wie oft die Schleife durchlaufen wurde. Und ebenso ist die Anweisung ›a = f(a)‹ eine zeitliche Operation, die aus dem Speicherplatz a den dort aktuell gespeicherten Wert einliest, ihn mit einer Funktion f(a) neu berechnet und anschließend das Ergebnis dem Speicherplatz a neu zuweist. Das a auf der linken Seite hat daher in der Regel einen anderen Wert als das a auf der rechten Seite. Wenn z.B. in einer Anlagenbuchhaltung am Speicherplatz a der Wert einer Anlage steht und mit der Funktion f neu berechnet wird, verändert sich dadurch der Inhalt am Speicherplatz a. Auf der rechten Seite steht das »alte a«, auf der linken Seite das mit einer Funktion f berechnete »neue a«. Die Verständnisschwierigkeit entsteht, weil in der Programmierung abgekürzt wird: Das Zeichen a steht sowohl für den Speicherplatz wie für den Wert, der an diesem Speicherplatz gespeichert ist.

Aufzuklären, was hier beim Programmieren geschieht und dafür eine geeignete Logik zu finden, ist für mich eins der stärksten Motive von Spencer-Brown. Wenn seine Arbeiten bisher von der Informatik nahezu vollständig ignoriert werden, zeigt das für mich nur, in welchem Ausmaß die Informatik unfähig ist, gegenüber ihrem eigenen Tun so etwas wie eine transzendentale Wende zu finden, wie es Kant innerhalb der Philosophie geleistet hatte, und wie es nach meinem Eindruck Spencer-Brown für die Programmierung suchte. Gerade für einen Mathematiker und Informatiker ist das Buch von Spencer-Brown nicht einfach zu lesen. Er ist zwar besser vertraut als andere mit formalen Überlegungen dieser Art, muss sich aber von festgefahrenen Vorurteilen befreien. Er muss – wie Spencer-Brown sagte – viel verlernen, und das Verlernen schrittweise angehen, um nicht bereits beim ersten Schritt in zu große Verwirrung zu geraten.

Spencer-Brown antwortete auf eine Frage von John Lilly (1915-2001) (Neurophysiologe, Delfin-Forschung, Drogen wie LSD, Einfluss auf New Age):

»LILLY: Have you formulated or recommended an order of unlearning?
SPENCER BROWN: I can't remember having done so. I think that, having considered the question, the order of unlearning is different for each person, because what we unlearn first is what we learned last. I guess that's the order of unlearning. If you dig too deep too soon you will have a catastrophe; because if you unlearn something really important, in the sense of deeply imported in you, without first unlearning the more superficial importation, then you undermine the whole structure of your personality, which will collapse. Therefore, you proceed by stages, the last learned is the first unlearned, and this way you could proceed safely.« (AUM, first session)

Der Einfluss des Beobachters

Die transzendentale Wende von Kant ist eine neue Art von Selbstbeobachtung, mit der das Denken sein eigenes Tun untersucht. Kant war sich bewusst, dass er mit ihr eine Wende nachvollzog, die sich bereits in der Astronomie mit der kopernikanischen Wende ereignet hatte, als bewusst geworden war, in welcher Weise das Weltbild vom jeweiligen Standort des Beobachters abhängig ist. Die Welt stellt sich anders dar, wenn sie in Gedanken nicht mehr von der Erde aus, sondern von der Sonne aus gesehen wird. Sachlich bleibt alles gleich, aber die Bewegungen der Sonne, Planeten und des Mondes sind mathematisch wesentlich einfacher in Bewegungsgleichungen zu bringen. An ihnen werden Muster erkennbar (die Keplerschen Gesetze), die mit bloßem Augenschein von der Erde aus nicht zu sehen sind.

Bei Einstein spielt die Geschwindigkeit, mit der sich ein Beobachter bewegt, eine Rolle, wie er andere Bewegungen wahrnimmt. In der Quantenmechanik wird befürchtet, dass nichts so gemessen werden kann, wie es ist, da es durch die Messung verändert wird, also der Messvorgang in die Messung eingreift.

Von noch größerer Bedeutung ist der Beobachter für die Psychologie und Soziologie, und nicht ohne Grund ist vor allem dort die Lehre von Spencer-Brown aufgegriffen worden. Kant hielt eine wissenschaftliche Psychologie für unmöglich. Für ihn war schon fraglich, ob die Chemie jemals eine Wissenschaft mit mathematischen Methoden werden kann, aber für die Psychologie hielt er das für ganz ausgeschlossen. Jedes denkende Wesen wird merken, wenn es beobachtet wird, und entsprechend reagieren. Daher kann der Beobachter nie sicher sein, ob der andere nur deshalb so ist, wie er ist, weil er sich auf ihn einstellt. Die Psychoanalyse berücksichtigt das teilweise, seit sie mit Freud das Phänomen der Übertragung kennt, wenn ein Patient sich unbemerkt den Erwartungen des Analytikers anpasst und dieser sich umgekehrt unbewusst so verhält, wie es der Patient von ihm erwartet (Gegenübertragung).

»Aber auch nicht einmal als systematische Zergliederungskunst, oder Experimentallehre, kann sie (die Psychologie, t.) der Chemie jemals nahe kommen, weil sich in ihr das Mannigfaltige der inneren Beobachtung nur durch bloße Gedankenteilung von einander absondern, nicht aber abgesondert auf behalten und beliebig wiederum verknüpfen, noch weniger aber ein anderes denkendes Subjekt sich unseren Versuchen der Absicht angemessen von uns unterwerfen läßt, und selbst die Beobachtung an sich schon den Zustand des beobachteten Gegenstandes alteriert und verstellt. Sie kann daher niemals etwas mehr als eine historische, und, als solche, so viel möglich systematische Naturlehre des inneren Sinnes, d.i. eine Naturbeschreibung der Seele, aber nicht Seelenwissenschaft, ja nicht einmal psychologische Experimentallehre werden.« (Kant Metaphysische Anfangsgründe der Naturwissenschaften, Vorrede, MAN, AA 04:471.22-32)

Hat sich das für Spencer-Brown in seiner eigenen psychotherapeutischen Erfahrung bestätigt? Lassen sich anders als Kant glaubt im Verhalten des Beobachters und des Beobachteten in der psychologischen Praxis Muster erkennen, die über die jeweilige Persönlichkeit hinausgehen? Mir ist nicht bekannt, ob und wie intensiv sich Spencer-Brown mit den Lehren etwa von Husserl, Heidegger, Sartre und anderen beschäftigt hat, die dieser Frage nachgegangen sind. Luhmann und Scheier stellen die Logik von Spencer-Brown in diesen Kontext und versuchen ihn von dort aus zu verstehen.

Hier erhält die Frage nach dem Re-entry eine neue Bedeutung. In der psychologischen und soziologischen Praxis ist Re-entry nicht einfach eine möglicherweise rein mechanische Resonanz, Feedback oder eine wie in selbst-referentiellen Systemen nahezu automatisch ablaufende Rückkopplung, sondern der Beobachtete bekommt vom Beobachter auf sein Verhalten eine Rückmeldung und reagiert darauf.

Prozess und Resultat

Wenn Spencer-Brown von seiner Berufserfahrung her das pragmatische Tun hervorhebt, stellt er damit das überlieferte Verhältnis von Prozess und Resultat in Frage. Da die traditionelle Logik nur zeitlose Aussagen kennt, die immer gelten und sich nie ändern, hat sie nicht die Logik von Prozessen untersucht. Für Aristoteles waren Logik und Physik klar getrennt. Die zeitlosen Aussagen hat er systematisch in der Kategorienlehre untersucht, wogegen es in der Physk als der Lehre von den vergänglichen Dingen und Wesen, die Werden und Vergehen unterworfen sind, zu Zeit, Bewegung und Veränderung kommt. Dort bildete er mit energeia und entelecheia neue Begriffe, die nur für den Verlauf von Prozessen gelten und bewusst den Rahmen der Kategorienlehre verlassen und einem neuen logischen Verständnis nahekommen. (Sie sind seither als Energie und Entelechie zu Grundlagenbegriffen in der Physik und Biologie geworden. Heidegger hatte sie als Existenzialien bezeichnet, es aber für unmöglich gehalten, für sie eine der traditionellen Logik vergleichbare Formalisierung zu finden.)

Spencer-Brown will die Logik begründen auf Begriffen, in denen Prozess und Resultat noch nicht klar getrennt sind. Dies Anliegen teilt er mit Hegel, der systematisch solche Begriffe benutzt hat. ‘Anfang’: Das kann sowohl der Vorgang des Anfangens wie das Resultat sein, das angefangen wurde. Ähnlich Bestimmung, Entwicklung, Messung usf: Eine Messung kann der Vorgang des Messens sein, wie auch der Messwert, der gemessen wurde. Bestimmung kann der Vorgang des Bestimmens sein wie das Ergebnis, dass etwas so und nicht anders bestimmt ist.

Spencer-Brown gründet seine Logik mit Distinction (Unterscheidung) und Indication (Anzeige, Hinweis) auf ähnliche Begriffe. Das kann sowohl der Vorgang des Bezeichnens und Unterscheidens sein wie auch das Ergebnis, wenn eine Unterscheidung getroffen ist und eine Bezeichnung gefunden wurde. Es ist der Vorgang, etwas zu unterscheiden, und im Ergebnis das Zeichen (mark) und der Wert (value), der dem Etwas mit der Unterscheidung verliehen wird.

Wenn mit Begriffen begonnen wird, bei denen die Unterscheidung in Prozess und Resultat bewusst offen gehalten wird, dann muss es innerhalb der Logik einen klar erkennbaren und nachvollziehbaren Weg geben, dort Zeit und Bewegung einzuführen und diese Offenheit in ihre beiden Bestandteile auseinander zu legen. Dies Motiv sehe ich besonders in der Unterscheidung der primären Arithmetik und primären Algebra wie in der Einführung des Re-entry und der mit dem Re-entry gegebenen Zeit.

Die Zeichen und ihr Medium

Ist es für einen Mathematiker schon ungewohnt, die veränderte Bedeutung von Variablen im zeitlichen Verlauf von Zuweisungen in der Programmierung und der Logik von Spencer-Brown einerseits und den zeitlos gedachten mathematischen Gleichungen andererseits zu akzeptieren, so erfordert es ein noch weiter gehendes Umdenken, das Verhältnis von Zeichen und Medium als wechselseitigen Prozess anzusehen. Es ist für einen Mathematiker geradezu absurd anzunehmen, dass das Medium, in das die mathematischen Zeichen eingeschrieben sind, Einfluss auf die Zeichen und ihre Operationen nehmen könnte. Im Grunde stellt sich jeder Mathematiker die Zeichen seiner Formeln völlig unabhängig vom Medium vor, in dem sie dargestellt sind, am besten als Objekte in einem gänzlich immateriellen, rein geistigen Raum. Wenn er eine Tafel oder ein Blatt Papier oder einen Bildschirm braucht, um dort seine Formeln aufschreiben zu können, sind das nur Hilfsmittel ohne Einfluss auf die Inhalte des Rechnens und Beweisens. Es kann sein, dass eine Formel auf einem schlechten Hintergrund verschwimmt und daher falsch gelesen wird mit Ergebnissen, die in die Irre führen. Doch ist das nichts weiter als ein Störfaktor, der idealerweise ausgeschlossen werden kann. Die Aussagen mathematischer Sätze gelten prinzipiell unabhängig vom Medium, in dem sie aufgeschrieben werden.

Diese Einstellung ist 1948 mit der Arbeit von Claude Shannon (1916-2001) über die Mathematischen Grundlagen in der Informationstheorie erschüttert worden. Shannon war wie Spencer-Brown Mathematiker und Elektrotechniker. Er hat in seiner Untersuchung von Datenübertragungen nachgewiesen, wie jedes Medium ein Grundrauschen erzeugt, das die übertragenen Zeichen stört. Die Mathematik hat bis heute nicht wahrgenommen oder nicht wahrnehmen wollen, welche elementaren Konsequenzen sich daraus auch für die Mathematik und die Logik ergeben. Die Mathematik gilt bis heute als eine Lehre, die unabhängig vom Medium gilt, in dem sie geschrieben und über das sie übertragen wird. Niemand kann sich vorstellen, dass das Medium einen Einfluss auf die Zeichen und ihre Aussagen haben könnte. Mathematik gilt als eine Lehre, die im prinzipiell unbewegten Geist entwickelt wird.

Für Spencer-Brown relativiert sich das. Für ihn kam mit dem Entwurf von Schaltkreisen eine prinzipiell neue Erfahrung hinzu, die noch weit über das bloße Programmieren hinausgeht. Schaltkreise sind auf den ersten Blick nichts anderes als eine graphische, anschauliche Formelsprache, die in ihrem logischen Status den Zeichen der Mathematik ähneln und ihnen letztlich entsprechen sollten. Doch zeigte sich für ihn bei den Schaltkreisen, die er entworfen und mit denen er gerechnet hat, dass jeder Schaltkreis eine Eigendynamik enthält, die die mit dem Schaltkreis entworfenen Aussagen und Ergebnisse mit tragen. Es lässt sich in Worten und Formeln beschreiben, welchen Input ein Schaltkreis verarbeitet und zu welchem Output er führt, aber es lässt sich nicht restlos erklären, wie es zu diesen Ergebnissen kommt. Offenbar enthält der Schaltkreis eine Art von Selbstorganisation, die aus sich heraus das Ergebnis beeinflusst. Wer einen Schaltkreis entwirft, hat zwar ein klares Ziel vor Augen und kann den Schaltkreis gestalten und realisieren, aber er kann nicht völlig voraussagen, was im Schaltkreis geschieht. Im Gegenteil verlässt er sich darauf, dass der Schaltkreis von sich aus eine Stabilisierung bewirkt, die dem Ergebnis erst die erwartete Sicherheit verleiht. Auch wenn sich bei näherer Untersuchung viele der Prozesse erklären lassen, die im Schaltkreis zum gewünschten Ergebnis geführt haben, bleibt immer ein Rest bestehen. Diese Eigenschaft ergibt sich nicht aus der graphischen Gestalt und ihrer Formelemente, sondern aus dem Medium, in dem der Schaltkreis verwirklicht wird. Spencer-Brown vergleicht es mit der Chemie: Niemals kann mit chemischen Formeln vollständig beschrieben werden, was in einer chemischen Reaktion geschieht. Im chemischen Prozess steckt eine Eigendynamik, die trotz aller Vorkehrungen immer zu Überraschungen führen kann. Aus heutiger Sicht kann die Zellbiologie als weiteres Beispiel genannt werden. Es hat sich gezeigt, dass selbst die vollständige Aufschlüsselung des DNA-Codes nicht dazu führt, die Vorgänge in einer Zelle umfassend voraussagen zu können. In allen diesen Beispielen handelt es sich um Texte oder textähnliche Formen (die Graphik des Schaltplans, die chemischen Reaktionsgleichungen, der DNA-Code), die grundsätzlich unvollständig sind und das Medium, in dem sie realisiert werden, nicht vollständig abbilden können. Ist diese Erfahrung in einer Art von Grenzprozess auch auf die Mathematik und die Logik zu übertragen, oder zumindest dort geeignet zu berücksichtigen?

Das führt Spencer-Brown zur grundsätzlichen Frage nach dem Verhältnis der Zeichen und des Mediums. Das Ergebnis ist sicher nicht, dass die heute bekannte Mathematik »falsch« wird, weil sie ihr Medium und dessen Mitwirkung übersehen hat. Sondern das Ergebnis ist, dass die Mathematik vor dem Horizont einer übergreifenden Lehre von Medium und Zeichen zu verstehen ist, aus der heraus der besondere Status der Mathematik und die Bedingungen verständlich werden, warum sie in der uns bekannten Weise gilt.

Für mich ist dies das am schwersten zu verstehende und zugleich folgenschwerste Motiv von Spencer-Brown. Wird eine Logik entworfen, die selbstreflexiv ihr eigenes Medium versteht, in dem sie sich gründet, eingeschrieben ist und übertragen wird, dann kann das zum Entwurf einer Logik der medialen Moderne führen, die der heutigen Verfassung des Menschen gerecht wird. Auf den Stellenwert des Mediums zum Verständnis unserer Kultur hat insbesondere Scheier in Luhmanns Schatten hingewiesen. Spencer-Brown kann helfen, das weiter auszuarbeiten.

Der gordische Knoten

Ist es möglich, alle diese Fragen gemeinsam wie in einem gordischen Knoten zu lösen? Das scheint mir letztlich das Motiv von Spencer-Brown zu sein.

Spencer-Brown stellt als Motto einen Vers aus dem Daodejing von Lao-Tse voran. Lao-Tse beginnt seine Schrift mit vier Versen, von denen Spencer-Brown den dritten Vers ausgewählt hat.

wu ming tian di zhi shi
Wu ming tian di zhi shi
Nichts/Ohne Name Himmel Erde von Anfang

»Da das Chinesische eine isolierende und keine flektierende Sprache ist, gehört zu dem chinesischen Satz eine Ambiguität, die in den westlichen Sprachen durch die Entscheidung für eine Wortart verloren geht. Die Ambiguität hängt an der grammatischen Rolle des ersten Wortes wu: nicht, ohne, Nichts.« (SWH, 65)

Der Vers kann daher in zweierlei Weise übersetzt werden:

– Ohne Name ist der Anfang des Himmels und der Erde
– 'Nichts' ist Name des Anfangs von Himmel und Erde.

Alle vier Verse lauten im Zusammenhang:

Der Weg, der wirklich Weg ist, ist ein anderer als der unwandelbare Weg.
Die Namen, die wirklich Namen sind, sind andere als unwandelbare Namen.
Namenlos/Nichts ist der Anfang von Himmel und Erde.
Der Name ist die Mutter der zehntausend Dinge. (zitiert SWH, 65)

»Distinction is Perfect Continence«

Irgenwo muss auch Spencer-Brown in seiner Logik mit nicht weiter hinterfragbaren Grundbegriffen anfangen. Das sind für ihn Indication (Hinweis) und Distinction (Unterscheidung).

»We take as given the idea of distinction and the idea of indication. We take, therefore, the form of distinction for the form.« (LoF, 1)

Was damit gemeint ist, zeigen die einfachsten Rechenaufgaben. In einer Gleichung wie ›2 + 3 = 5‹ wird mit Operanden (in diesem Beispiel den Zahlen 2, 3 und 5) sowie mit Operatoren (Operationszeichen) (hier + und = für Addition und Gleichsetzung) gerechnet. Ähnlich ist es in der Sprache. In einem Aussagesatz wie ›S ist p‹ sind S und p als Operanden und die Copula ‘ist’ als Operator zu verstehen.

Um rechnen und Sätze bilden zu können, müssen bereits im Vorfeld die Operanden voneinander unterschieden worden sein (in diesen Beispielen die beiden Zahlen 2 und 3 bzw. im Satz das Subjekt S und das Prädikativ p), und es muss unterscheidbar sein, bei welchen Zeichen es sich um Operanden oder Operatoren handelt. Die Operanden 2, 3 und 5 dürfen nicht miteinander oder mit den Operationszeichen + und = verwechselt werden. Wenn das geschehen sollte, wird der Rechnung die Grundlage entzogen. Daher liegt es nahe, die Proto-Operation des Unterscheidens noch vor den Operationen des Rechnens bzw. Sprechens mit Operatoren und Operanden anzusetzen.

Spencer-Brown wählt als elementares Zeichen den Haken (Winkel, cross):

    spencer brown call

Dies Zeichen hat eine vielfache Bedeutung:

– Ausführung einer elementaren Operation (das Zeichnen dieses Zeichens, draw a distinction)

– Hervorheben eines Inneren (mark)

– Auszeichnen eines inneren Bereichs (marked space) (Asymmetrie von Innen und Außen)

– Ziehen einer Grenze (boundary with separate sides)

– Unterscheiden eines Grundes vom Zeichen, das in den Grund gezeichnet ist (ground, medium)

– Benennen der Grenze durch das Zeichen spencer brown call  (indication, call)

In der letztgenannten Bedeutung ist es selbst-bezüglich: Es zeigt sowohl mit seiner äußeren Gestalt anschaulich den Unterschied zwischen einem Innen und einem Außen, und zugleich ist dies Zeichen der Name für diesen Unterschied. Dadurch wird dem Innen ein Wert verliehen.

Das Verblüffende ist nun, dass ausschließlich mit diesem Zeichen nicht nur die Operanden, sondern auch die Operatoren dargestellt werden können. Spencer-Brown unterscheidet nicht wie die traditionelle Logik und Mathematik zwischen Zeichen für Operanden und Operatoren, sondern definiert die Operatoren durch die bloße Anordnung der Operanden: Das sind die beiden Operationen ‘Wiederholung’ und ‘Verschachtelung’. Mit ihnen lässt sich die vollständige weitere Logik aufbauen.

    spencer brown recalling           spencer brown recrossing

Alle weiteren Zeichen werden schrittweise aus diesen beiden Zeichen und ihren beiden Anordnungsmöglichkeiten zusammengesetzt, so wie in der euklidischen Geometrie alle Konstruktionen aus Geraden und Kreisen hervorgehen.

Für diese beiden Operationen setzt Spencer-Brown zwei Axiome:

»Axiom 1: The law of calling.
The value of a call made again is the value of the call.« (LoF, 1)

spencer brown recalling   =   spencer brown call    

lies: Wird etwas zweimal bei seinem Namen genannt, ändert sich der Name dadurch nicht.

»Axiom 2: The law of crossing
The value of crossing made again is not the value of the crossing« (LoF, 2)

spencer brown recrossing  =     .

lies: Wird zweimal die Grenze gewechselt, dann wird der Anfangszustand wiederhergestellt. Die Wiederholung des Crossing hat einen anderen Wert als das einfache Crossing. Das liegt daran, dass zwischendurch eine Umkehr erfolgt. Beim Crossing wird die Seite gewechselt, beim Recrossing wird diese Aktion rückgängig gemacht.

Die Einführung dieser beiden Axiome wird vielleicht verständlicher, wenn daran erinnert wird, dass Spencer-Brown von Schaltkreisen ausging. (1) Wird in einem Schaltkreis auf einer Verbindung ein Schalter geöffnet, dann ist die Strecke unterbrochen und wechselt vom Zustand ‘an’ in den Zustand ‘aus’. Werden mehrere Schalter geöffnet, bleibt der Zustand ‘aus’ erhalten. Es ist im Ergebnis das gleiche, einen Schalter oder mehrere Schalter zu öffnen. (2) Wird ein Schalter erst geöffnet und dann wieder geschlossen, ist der Ursprungszustand ‘an’ wieder hergestellt.

spencer brown schalter

Mit Axiom 2 ist implizit das Medium eingeführt: Wird das Recrossing als Reflexion verstanden, mit der im wörtlichen Sinn eine Grenzüberschreitung reflektiert (zurückgeworfen) wird, dann entsteht mit Axiom 2 als Ergebnis der leere Raum. Er ist das, was übrig bleibt, wenn etwas unternommen und wieder rückgängig gemacht wird. Was zurück bleibt ist nicht mehr einfach das Nichts: Es ist der Raum, der durch die zweifache Bewegung eines Werdens und eines Vergehens entstanden ist: Die Grenze wurde zuerst gezeichnet. Das ist ein Werden. Sodann wurde das Werden durch ein Vergehen rückgängig gemacht. Übrig bleibt der Grund, auf dem diese Bewegung von Werden und Vergehen stattgefunden hat. – Oder anders gesagt: Ein Beobachter sieht zwar nichts mehr, aber er kann sich an die Bewegung des Crossing und Recrossing erinnern. In seinem Gedächtnis kann eine Spur zurückbleiben, auf die sich die Erinnerung stützt. (Vergleiche hierzu die Ausführungen von Hegel: »Das Resultat ist das Verschwundensein, aber nicht als Nichts.« HW 5.113)

Mit Werden und Vergehen der Grenze im Crossing und Recrossing ist implizit von Anfang an die Zeit gesetzt. Sie ist bereits in der ursprünglichen Aufforderung enthalten »triff eine Unterscheidung, draw a distinction«. Spencer-Brown ist noch konsequenter als Hegel: Er wählt nicht nur wie Hegel Begriffe, die zugleich eine Bewegung wie ihr Resultat beschreiben (Unterscheidung, Bezeichnung kann sowohl verstanden werden als das Unterscheiden und Bezeichnen wie auch als das Ergebnis, die mit dem Unterscheiden und Bezeichnen erreichte Unterscheidung und Bezeichnung), sondern er wählt mit dem Haken ein Zeichen, das zugleich die Operation (Bewegung) wie den Operand beschreibt.

Anmerkung: In den beiden Operationen der Wiederholung (Recalling) und der Rückkehr zurück über die Grenze (Recrossing) sehe ich formal die beiden von Hegel unterschiedenen Bewegungen der Kontinuation und der Umkehr, die für mich zentral sind für das Verständnis sowohl der absoluten Indifferenz, wie des Übergangs von der Seinslogik zur Wesenslogik und dort des Begriffs der Idee (siehe hierzu den Beitrag Idee des höheren Widerspruchs).

Aber wie soll das Zeichen spencer brown call im Deutschen benannt werden? Spencer-Brown führt es ein als »crossing the boundary« und als »calling« (LoF, 1), und nennt es nach dem ersten Aufzeichnen ein »mark« (LoF, 3). In deutschen Übersetzungen wird bisweilen das englische Wort ‘cross’ beibehalten oder ein neutraler Ausdruck gewählt wie ‘Token’, ‘Markierung’ oder ‘Zeichen’. Die wörtliche deutsche Übersetzung ‘Kreuz’ wird meist vermieden, da es sich äußerlich nicht um ein Kreuz kreuzprodukt, sondern um einen Winkel handelt. Ein Winkel wird jedoch meist nach rechts geöffnet und mit einer Öffnung von weniger als 90° vorgestellt, so auch das Zeichen für Winkel in der Auszeichnungssprache HTML: ∠. Möglich ist auch das Wort ‘Haken’. Das alles trifft jedoch nicht die von Spencer-Brown gemeinte Doppelbedeutung eines Zeichens und einer Bewegung (cross, crossing, in deutscher Übersetzung: Kreuz und Kreuzen). Auch das Wort ‘Quere’ ist missverständlich, denn unter einer Quere ist eher ein Zeichen wie \ oder / zu verstehen, das quer verläuft, und mit Überqueren ist oft eine andere Art von Bewegung gemeint, etwa das Überqueren eines leeren Platzes, eines Flusses, eventuell auch eine Abkürzung, wenn ein Rechteck entlang der Diagonale durchquert wird. Trotz Bedenken ist für mich in Gesprächen und bei Demonstrationen an einer Tafel der Name ‘Haken’ am eingängigsten, weil er am besten die äußere Gestalt trifft.

Für das andere Zeichen, das nur aus einer Leere besteht, hat Spencer-Brown lange nach einem geeigneten Namen gesucht. Erst in der 2. Auflage der deutschen Übersetzung von 1999 führt er den Ausdruck ock ein.

»Kurz nachdem es das erstemal veröffentlicht wurde, erhielt ich einen Telephonanruf von einem Mädchen namens Juliet, die, während sie ihre Begeisterung über das, was ich getan hatte, ausdrückte, ebenso ihrer Frustration Ausdruck verlieh, nicht den leeren Raum über das Telephon sprechen zu können. [...] Sie hatte völlig recht, und ich erfand in der Folge das Wort Ock (vom Indoeuropäischen okw = das Auge), symbolisiert durch einen umgekehrten Kleinbuchstaben ock um in einer sprechbaren Form die universelle rezessive Konstante zu kennzeichnen, die alle Systeme gemeinsam haben. Gewöhnliche Zahlensysteme haben natürlich zwei Ocks, null für die Addition und die Einheit für die Multiplikation. [...] In diesem Buch, in dem seine wahre Natur erstmals klargemacht wurde, war es aber wichtig, das Ock namenlos und leer zu lassen, weil es das nächste war, an das ich gelangen konnte, um hervorzuheben, daß es überhaupt nichts ist, nicht einmal leer. Seine Erfindung war mächtiger als die Erfindung der Null, und sandte Schockwellen durch die gesamte mathematische Gemeinde, die selbst jetzt noch nicht abgeklungen sind.« (Spencer-Brown, 1999, xvf, zitiert bei Rathgeb, 118)

In der Sekundärliteratur zu Spencer-Brown ist das bis heute außer bei Rathgeb nicht aufgenommen worden.

Zusammenfassung: Das Anliegen dieser ersten Schritte nennt Spencer-Brown:

»Definition
   Distinction is perfect continence.« (LoF, 1)

Was ist mit dem ungewöhnlichen Wort continence gemeint: SWH erläutern: (a) Es kann Enthaltsamkeit, Mäßigkeit und Selbstkontrolle bedeuten (kontinent als Gegenteil von inkontinent). In dieser Bedeutung wird mit continence gesichert, dass etwas nicht auseinanderläuft und sich zerstreut, verfranst und die eigene Identität verliert. (b) Und es kann Zusammenhalt bedeuten im Sinne des Kontinuum, wodurch zum Beispiel in der Geometrie die Unendlichkeit von Punkten auf einer Linie zusammengehalten wird. (SWH, 70) Das scheint mir das Anliegen von Spencer-Brown sehr gut zu treffen.

Rechnen in einer Proto-Arithmetik und Proto-Algebra

Spencer-Brown hat sein Verständnis von Arithmetik und Algebra auf der AUM-Konferenz in der Session Two am 19.3.1973 dargelegt und zur Diskussion gestellt.

–    Eine Arithmetik wird demonstriert an physischen Gegenständen. Schon im Kindergarten oder der Grundschule wird sie an Beispielen gelernt wie ›3 Äpfel und 2 Äpfel sind 5 Äpfel‹. Jeder kann die beiden kleineren Mengen von 2 und von 3 Äpfeln nehmen, sie zusammenlegen und nachzählen, dass es jetzt 5 Äpfel sind. Beispiele dieser Art sind so intuitiv und "schlagend", dass kaum jemand bemerkt, was implizit vorausgesetzt und unter der Hand mitgelernt wird. Die einzelnen Äpfel bleiben selbständig und verändern sich nicht durch das Zählen. Würden sie wie bei einem chemischen Prozess miteinander reagieren und verschmelzen oder sich in andere Objekte umwandeln oder aufteilen, dann wäre das Zählen unmöglich. Spencer-Brown formuliert daher eigene Regeln, die das sicherstellen (die von ihm so genannten Kanons).

Erst allmählich wird daraus das abstrakte Rechnen mit Zahlen, bei dem nicht mehr ausdrücklich auf bestimmte Gegenstände hingewiesen wird. Die Zahlen selbst sind keine physischen Gegenstände. In der Schule wird das implizit mitgelernt, und es ist bis heute eine ungelöste Frage, ob die Zahlen unabhängig von den gezählten Gegenständen bestehen, ob sie eine der Eigenschaften der gezählten Gegenstände sind, oder ob es die Zahlen nur im Denken von vernunftbegabten Wesen wie den Menschen gibt, die im Laufe ihrer Entwicklung Zahlen eingeführt haben und mit ihnen in Gedanken operieren können. Die Philosophen und Logiker haben hierüber nie Einigkeit erzielt. Ich schließe mich der Ansicht von Aristoteles an, für den die Zahlen nur im Denken bestehen.

In welcher Weise kann in der Proto-Arithmetik von Proto-Zahlen gesprochen werden, und wie lassen sie sich vergleichbar dem Zählen von Äpfeln an konkreten Gegenständen veranschaulichen? Spencer-Brown geht eine Ebene tiefer und versteht die beiden Zeichen call und ock (Ock) in einer doppelten Bedeutung, in der sie sowohl als Zahlen wie als Operationszeichen dienen. Die gewöhnliche Arithmetik kennt Ausdrücke wie ›7 + 5‹ oder ›120 − 13‹. Für Spencer-Brown handelt es sich bei ihnen um Zeichenketten, die nach festen Regeln aus einem bestimmten Zeichenvorrat gebildet werden, der im Dezimalsystem aus den Ziffern 0, 1, 2, …, 9 und den Operationszeichen wie + und − besteht. In seiner Proto-Arithmetik reduziert er den Zeichenvorrat auf die beiden Zeichen call und ock (Ock), aus denen die arithmetischen Ausdrücke zusammengesetzt werden. Genau genommen sind sie weder Proto-Ziffern noch Proto-Zahlen, sondern mathematische Proto-Zeichen, aus denen mathematische Ausdrücke gebildet werden, in denen sie sowohl die Bedeutung von Ziffern (und den aus ihnen nach dem Stellenwertsystem zusammengesetzten Zahlen) als auch von Operationszeichen erhalten. Um die Ausdrucksweise nicht zu kompliziert werden zu lassen, kann dennoch von Proto-Zahlen gesprochen werden, auch wenn das wörtlich genommen falsch ist. Spencer-Brown sagt, dass die Proto-Arithmetik mit ihnen rechnet (calculates, siehe das Kapitel Calculation; LoF, 11). Aus den beiden Zeichen call und ock (Ock) werden nach den beiden Regeln der Mehrfach-Ausführung und Verschachtelung komplexere Zeichen zusammengesetzt. Das sind in einem ungenauen Sinn die Proto-Zahlen. Spencer-Brown spricht nicht von Rechenoperationen, sondern von Umwandlungen (»primitive equations«, »procedue«, »changes«; LoF, 10f) und führt hierfür das Zeichen changedto ein (LoF, 8). Mit diesem Zeichen werden zwei arithmetische Ausdrücke voneinander getrennt. Es bedeutet, dass der zweite Ausdruck durch eine Umwandlung aus dem ersten Ausdruck hervorgegangen ist (LoF, 11).

Die gewöhnlichen Zahlen werden als Abstraktion aus dem Zählen von Gegenständen veranschaulicht und verstanden. Mit den beiden Zeichen call und ock werden im ersten Schritt noch nicht Gegenstände gezählt, sondern unterschieden. Das Unterscheiden geht dem Zählen voraus. Wenn Gegenstände nicht unterschieden werden, können sie auch nicht gezählt werden. Das Zeichen call beschreibt, dass es einen Unterschied von etwas zu etwas anderem gibt, und das nur als leere Fläche gedachte Zeichen ock beschreibt den Hintergrund, vor dem sich die Grenze eines Etwas von seinem Äußeren abhebt. Der Abstraktionsprozess bleibt jedoch ähnlich: So wie aus dem Zählen von Gegenständen das Verständnis der Zahlen gewonnen wird, so wird aus dem Unterscheiden von Gegenständen voneinander und vor dem jeweiligen Hintergrund das Verständnis der beiden Zeichen call und ock gewonnen.

So wie die herkömmliche Arithmetik die natürlichen Ziffern 0, 1, 2, 3, …, 9 einführt und mit ihnen Zahlen bildet und rechnet, sieht Spencer-Brown seine primary arithmetic als eine vereinfachte und vorlaufende Arithmetik an, die nur die beiden Zeichen call und ock (Ock) kennt. Mit diesen beiden Zeichen soll auf eine vergleichbare Art gerechnet werden, wie wir es aus der gewöhnlichen Arithmetik gewohnt sind, um tieferliegende arithmetische Zusammenhänge zu erkennen, aus denen schrittweise die gewöhnliche Arithmetik hergeleitet werden kann.

–    Die Arithmetik berücksichtigt die Individualität der jeweiligen Zahlen. In der Zahlentheorie ist jede einzelne Zahl etwas Besonderes. Was in der Arithmetik für eine bestimmte Zahl bewiesen wurde, lässt sich nicht ohne Weiteres auf die anderen Zahlen übertragen. Erst die Algebra wird Regeln studieren, die grundsätzlich für alle Zahlen gelten. So ist es auch bei der Proto-Arithmetik, mit der die Besonderheiten der beiden Zeichen call und ock (Ock) sowie der aus ihnen zusammengesetzten Zeichen untersucht werden.

Spencer-Brown will zurückkehren zu dem ursprünglichen Zahlenverständnis, das in der Arithmetik enthalten ist und der Algebra vorausgeht. Wer das Rechnen und den Umgang mit Zahlen lernt, wird anfangs jede Zahl in ihrer Besonderheit erfassen. Jede neue Zahl hat etwas Eigenes. Kinder lernen, wie z.B. die Zwei und die Vielfachen von Zwei, die Drei und die Vielfachen von Drei, die Fünf und die Vielfachen von Fünf jeweils etwas Besonders haben. So haben z.B. alle Vielfachen von Fünf als letzte Ziffer nur die 0 oder die 5 (5, 10, 15, 20, …), bei den Vielfachen der 3 ist die Quersumme durch 3 teilbar (die Quersumme ist die Summe aller Ziffern, z.B. wird die Quersumme von 75342 berechnet als ›7 + 5 + 3 + 4 + 2 = 21‹, und da 21 durch 3 teilbar ist, ist auch 75342 durch 3 teilbar). Ein anderes Beispiel ist die Zahl 6, die mit der Summe ihrer Teiler identisch ist ›6 = 1 · 2 · 3 = 1 + 2 + 3‹. So lassen sich für jede Zahl spezifische Eigenschaften erkennen. Jeder, der von Mathematik begeistert ist, ist von Zahlenspielereien und Gedanken über die Besonderheiten der einzelnen Zahlen fasziniert (thaumazein, in einem altertümlichen Ausdruck ‘verwundert’) und hat seine Lieblingszahlen und Zahlen, die irgendwie fremd wirken. Auch wenn es ein Außenstehender vielleicht kaum nachvollziehen kann, zeigt sich für mich in dieser Art mit Zahlen zu spielen die gleiche Haltung und spontane Freude wie beim Kanon-Singen. Aus der Schule von Piaget stammt das Beispiel: Ich sage eine Zahl und du sagst eine Zahl. Wer die größere Zahl gesagt hat, hat gewonnen. Beide müssen lachen, wenn sie den Trick verstehen, warum ständig der zweite gewinnt, und wiederholen doch voller Übermut das gleiche Spiel immer neu. Das ist für mich das erste und einfachste Beispiel einer arithmetischen Beweisidee, mit der die Kinder ohne es wissen eine Prozedur für den Beweis gefunden haben, dass es unendlich viele Zahlen gibt.

Im Ergebnis entstehen Regeln wie die sogenannten Eselsbrücken, die jeweils für bestimmte Zahlen gelten und nicht auf andere Zahlen übertragbar sind. Jeder wird seine favorisierten Rechenverfahren haben, die ihm besonders gut gelingen, vergleichbar den Lieblingsfarben. Spencer-Brown will zu diesem ursprünglichen (naiven, magischen) Umgang mit den Zahlen zurück, denn nur aus ihm heraus ergeben sich für ihn die Möglichkeiten, den im 20. Jahrhundert entstandenen formalen Umgang mit Zahlen in einem neuen Licht zu sehen.

Im Sinne von Piaget gehört für ihn die Arithmetik zur II. Phase des symbolischen und vorbegrifflichen Denkens, die er in ihrer Besonderheit und Eigenheit erhalten will. Der Übergang zur Algebra wird daher in Vielem den Übergang zum operationalen Rechnen in der III. Phase (im Alter von 7 bis 12 Jahren) ähneln.

–    Innerhalb der Arithmetik gibt es Sätze (Theoreme). Theoreme sind für Spencer-Brown Ideen, die an individuellen, einzigartigen Elementen gefunden werden. In ihnen zeigt sich die Mathematik im engeren (eigentlichen) Sinn. Die Algebra wird dagegen formuliert für Variable unabhängig von der Individualität der jeweils in die Variablen eingesetzten Werte. Daher kann die Proto-Arithmetik für Spencer-Brown keine Theoreme formal aus den Axiomen ableiten, sondern nur intuitiv erfassen und erst im zweiten Schritt mit formalen Methoden nachweisen und Konsequenzen ziehen. Dagegen kann die Vorgehensweise der Algebra im Prinzip von Computern übernommen werden. Im 20. Jahrhundert wird seit Mathematikern wie Russell die Mathematik mit der algebraischen Art zu operieren gleichgesetzt. Das ist für Spencer-Brown ein großer Rückschritt, der die Mathematik, die mathematischen Fähigkeiten und die Freude an der Mathematik verkümmern lässt.

Was mit Theoremen gemeint ist, wird am besten klar an dem von Spencer-Brown genannten Beispiel: Euklid hat den Satz bewiesen, dass es unendlich viele Primzahlen gibt. Sein Beweis war: Wenn es nur endlich viele Primzahlen gibt, gibt es eine größte Primzahl. Sie heiße N. Wird das Produkt aller Primzahlen von 1 bis N gebildet, ergibt sich ›M = 1 · 2 · 3 · 5 · 7 · 11 · …· N‹. Für M lässt sich zeigen, dass ›M + 1‹ eine Primzahl ist. Daher gibt es eine weitere Primzahl, die größer als N ist, und so fort. Diese Idee kann nicht als Konsequenz aus den arithmetischen Regeln gefolgert werden, sondern sie musste gefunden werden. Wichtig ist für Spencer-Brown zweierlei: Der Beweis zeigt sowohl eine originelle Beweisidee wie auch ein Verfahren (procedure), mit dem die Beweisidee vorgeführt wird. Die meisten werden erst vom Verfahren überzeugt sein, warum der Satz richtig ist, und von ihm ausgehend die Beweisidee verstehen. Eine solche Beweisidee ergibt sich aus der für die Arithmetik typischen Art des Rechnens, die ein tiefes Verständnis (um nicht zu sagen Mitgefühl) mit den Zahlen und ihren inneren Rhythmen und unendlich vielfältigen Beziehungen und Verwandtschaften hat. Das kann kein Computer. Computer liefern dagegen eine andere Art von Erkenntnissen, die für Spencer-Brown zur Algebra gehören.

–    Spencer-Brown war von der Schalt-Algebra und der Booleschen Algebra ausgegangen und hatte die Arithmetik gesucht, die ihr vorausgeht und deren Algebra sie ist. Gewöhnlich lernen wir die Arithmetik anhand der natürlichen und reellen Zahlen kennen und anschließend all die algebraischen Regeln, wie mit ihnen gerechnet wird. George Boole (1815-1864) hatte 1847 eine vereinfachte Algebra gefunden, die mit den elementaren logischen Operationen wie UND und ODER rechnet und deren Variablen im einfachsten Fall nur für die zwei Zahlen 0 und 1 (oder in der Schalt-Algebra für ‘an’ und ‘aus’) stehen. Das war für Spencer-Brown der Ausgangspunkt, und er wollte auf diesem Weg noch einen Schritt weiter gehen: So wie die Arithmetik der natürlichen und reellen Zahlen den komplexen Theorien der Zahlentheorie und der Analysis zugrunde liegt, sollte es möglich sein, für die Boolesche Algebra eine eigene vereinfachte Arithmetik zu finden, die nur für die Zahlen 0 und 1 formuliert ist. Sie geht als primary arithmetic (Proto-Arithmetik) der üblichen Arithmetik ebenso voraus wie die Boolesche Algebra der gewöhnlichen Algebra. Auf diesem Weg ist ihm im Ergebnis eine Arithmetik gelungen, deren Zeichenvorrat mit den beiden Zeichen call und Ock noch weiter eingeschränkt ist, und die daher auch der Booleschen Algebra vorausgeht.

–    Aus Sicht von Spencer-Brown können die bahnbrechenden Aussagen von Gödel anders und neu gelesen werden: Kurt Gödel (1906-1978) hat 1931 gezeigt, dass die Algebra ab einer bestimmten Komplexität der Zahlen nicht mehr alles zu sagen vermag, was in der ihr vorausgehenden Arithmetik möglich ist. Die Arithmetik enthält mit der Individualität ihrer Zeichen einen  Überschuss, der von keiner Algebra vollständig erfasst und eingefangen werden kann. Die Algebra ist gegenüber der Arithmetik grundsätzlich unvollständig. Wie weit auch die Algebra entwickelt sein mag, aus der Arithmetik und dem unendlichen Vorrat ihrer jeweils individuellen Zahlen können neue Erkenntnisse kommen, die über die jeweils bekannte Algebra hinausgehen. – Wenn Spencer-Brown in Kapitel 9 von der Completeness (Vollständigkeit) spricht, meint er etwas anderes. Theorem 17 besagt: »The primary algebra is complete« (LoF, 50). Das besagt jedoch nicht, dass sie alles enthält, was an arithmetischen Entdeckungen gewonnen werden kann, sondern nur, dass jede arithmetische Entdeckung sich auch algebraisch formulieren lässt. »That is to say, if α = β can be proved as a theorem about the primary arithmetic, than it can be demonstrated as a consequence for all α, β in the primary algebra.« (LoF, 50) Mit Bedacht spricht Spencer-Brown daher von einem Theorem und nicht von einer Konsequenz, d.h. von einer Aussage, die mit den Methoden der Arithmetik und nicht mit denen der Algebra zu beweisen ist.

»So, to find the arithmetic of the algebra of logic, as it is called, is to find the constant of which the algebra is an exposition of the variables--no more, no less. Not, just to find the constants, because that would be, in terms of arithmetic of numbers, only to find the number. But to find out how they combine, and how they relate -- and that is the arithmetic. So in finding -- I think for the first time, I don't think it was found before, I haven't found it -- the arithmetic to the algebra of logic -- or better, since logic is not necessary to the algebra, in finding the arithmetic to Boolean algebra, all I did was to seek and find a) the constants, and b) how they perform.« (AUM, Session Two)

– Ein Beispiel für das Rechnen und Beweisen aus der Proto-Arithmetik

»Theorem 1. Form The form of any finite cardinal number of crosses can be taken as the form of an expression.« (LoF, 12) »Die Form jeder endlichen ganzen Zahl von Kreuzen kann als Form eines Ausdrucks aufgefasst werden.« (Spencer-Brown, übersetzt bei Lau, 68) Die Aussage ist in dieser Wortwahl kaum direkt zu verstehen. Sie bedeutet, dass eine beliebige Form, die aus endlich vielen Haken und Ocks konstruiert ist, entweder in einen einzigen Haken oder in ein einziges Ock umgewandelt werden kann. Diese Aussage kann auch anders formuliert werden: Jede noch so komplizierte aus Haken und Ocks zusammengesetzte Form kann im Ganzen als eine Form angesehen werden. Das lässt sich an einem Beispiel verdeutlichen, das Spencer-Brown später für das 3. Theorem anführt (LoF, 17):

beispiele LoF 17

Es soll gezeigt werden, wie diese Figur auf einen Haken oder ein Ock reduziert werden kann. Die Beweisidee besteht darin, auf die tiefste Verschachtelungsstufe zu gehen. Dort gibt es nur zwei Möglichkeiten: Entweder wiederholt sich ein Haken mehrfach, oder zwei Haken sind ineinander geschachtelt. Wenn es sich wiederholt, kann es nach Axiom 1 in einen einzigen Haken zusammengefasst werden (condensation). Wenn sich zwei Haken verschachteln, können diese nach Axiom 2 in ein Ock umgewandelt werden (cancellation). Das Beispiel gibt zugleich einen Eindruck, wie in der Proto-Arithmetik gerechnet wird. Mit rot sind jeweils die Haken hervorgehoben, die im nächsten Schritt zusammengezogen oder ausgelöscht werden können. Für die Umwandlungen wird das von Spencer-Brown eingeführte Zeichen changedto verwendet.

beispiele LoF 17a     changedto     beispiele LoF 17a2

beispiele LoF 17b     changedto     beispiele LoF 17b2

beispiele LoF 17c     changedto     beispiele LoF 17d

Wie wichtig dies Ergebnis ist, zeigt ein Vergleich mit Netzwerken. Wenn ein unübersichtliches Netzwerk vorliegt und auf ähnliche Weise vereinfacht werden soll, können Deadlocks auftreten, bei denen jede weitere Vereinfachung blockiert ist, siehe als Beispiel die Möglichkeit von Deadlocks in Petri-Netzen. Das ist in dem von Spencer-Brown gewählten Kalkül nicht möglich. Jedes komplexe Zeichen lässt sich bis auf eins der beiden Grundzeichen umwandeln.

– Arithmetik und Proto-Arithmetik

In den Laws of Form hebt Spencer-Brown noch nicht wie bei der AUM-Konferenz die Individualität der einzelnen Ausdrücke der Arithmetik hervor. Worin besteht der Unterschied zwischen der Proto-Arithmetik und der Proto-Algebra? In beiden Fällen beginnt er mit Initialen. Während Theoreme der Proto-Arithmetik bewiesen werden müssen, indem eine Beweisidee gefunden und aus ihr eine Prozedur hergeleitet wird, spricht er in der Proto-Algebra von Konsequenzen (consequences), die nicht bewiesen, sondern lediglich demonstriert werden (demonstration). Mit Demonstration ist gemeint, dass sie sich ohne eigene Beweisideen rein formal aus den Initialen ergeben, mit denen die Proto-Algebra begründet wird. Sie lassen sich daher auch von einem Computer ausführen.

Der wesentliche Unterschied zwischen der Proto-Arithmetik und der Arithmetik liegt in der Nachfolger-Relation. Für alle natürlichen Zahlen n gilt die Eigenschaft, dass sie einen Nachfolger n + 1 hat. Daraus ergibt sich, dass die natürlichen Zahlen auf der Zahlengerade angeordnet werden können. Mehrfaches Ausführen der Nachfolger-Relation führt zum Addieren, und daraus ergeben sich die weiteren Rechenoperationen und mit ihnen die Erweiterungen der natürlichen Zahlen durch die negativen und rationalen Zahlen usf.

Spencer-Brown stellt nicht einmal die Frage nach der Anordnung aller Zeichen der Proto-Arithmetik. In einem ersten Versuch können die aus den Wiederholungen der Haken entstehenden Zeichen angeordnet werden wie die Striche auf einem Bierdeckel:

    |, ||, |||, …

    call, callcall, callcallcall, …

Aber es gibt auch die Verschachtelung des Crossing. Während sich die Multiplikation und die höheren Rechenoperationen schrittweise auf die Addition zurückführen lassen, ist es nicht möglich, die Verschachtelung aus der Wiederholung herzuleiten. Beide sind unabhängig. Stattdessen bietet sich an, für die Anordnung aller in der Proto-Arithmetik betrachteten Zeichen eine lexikographische Ordnung wie für zwei voneinander unabhängige Buchstaben a und b zu wählen:

    a, b, aa, ab, bb, ba, aaa, aab, …

    aufzählung

In dieser Reihenfolge gibt es keine einfache Nachfolger-Relation, mit der übergreifend beschrieben werden kann, in welchem Verhältnis das jeweils nachfolgende Zeichen zu seinem Vorgänger steht. Entsprechend gibt es keine einfache Verknüpfungs-Regel, mit der aus zwei Zeichen ein neues gebildet werden kann. Stattdessen sind alle Operationen möglich, die aus den beiden Axiomen hervorgehen. Um diese Möglichkeiten darzustellen, kann wie bei den Zahlen ein Koordinatenkreuz angelegt werden. Auf beiden Achsen stehen jeweils alle lexikographisch geordneten Zeichen, so wie auf den Achsen des üblichen Koordinatenkreuzes alle Zahlen stehen. Für jedes Theorem kann in der Ebene eingetragen werden, welche Umwandlungen möglich sind. Das ergibt am Beispiel des einfachsten Theorems 1 folgendes Diagramm:

    Theorem 1

Theorem 1
Für jedes Zeichen ist eingetragen, ob es sich in den Haken oder in das Ock umwandeln lässt.

Auf ähnliche Weise lassen sich für alle Theoreme ihre Werteverläufe beschreiben. Ein Theorem ist in gewisser Weise eine Funktion, die mit einer einheitlichen Regel jedes Zeichen in ein anderes Zeichen umwandelt. Die Prozedur des Theorems zeigt, wie diese Umwandlung erfolgen kann. Der Beweis zeigt, dass die Umwandlung aus den beiden Axiomen bzw. bereits bewiesenen Theoremen möglich ist.

So wie bei den üblichen Funktion y = f(x) von Gleichheit gesprochen wird, sind für Spencer-Brown auch die Theoreme Gleichungen (equations).

Würde es eine Nachfolger-Relation geben, dann könnte in diesem Tableau für jedes Zeichen sein Nachfolger eingetragen werden. Bei den natürlichen Zahlen ist das einfach: Es ist die Funktion y = x + 1. Ihr Werteverlauf ist eine Diagonale, die auf einer geraden Linie durch die Zahlenebene verläuft.

Eine vergleichbare Nachfolger-Relation gibt es in der Proto-Arithmetik nicht. Spencer-Brown wird jedoch in der Proto-Algebra eine vergleichbare Funktion definieren, die für eine bestimmte Teilmenge von Zeichen eine Nachfolger-Relation findet und wie die Nachfolger-Relation unendlich fortschreitet. Für mich ist ein noch einfacheres Beispiel die bereits genannte Teilmenge aller Zeichen, die ausschließlich aus Haken bestehen, die sich wiederholen, aber keine Verschachtelung enthalten. Der Werteverlauf sieht folgendermaßen aus und deckt offensichtlich nur eine Teilmenge ab:

    Nachfolger

Werteverlauf von Zeichen, die nur aus wiederholten Haken bestehen

Mit diesen Darstellungen wird deutlich, warum es in der Proto-Arithmetik zwar keine Nachfolger-Relation gibt, aber der Übergang von ersten zu zweiten Gleichungen möglich wird, mit denen Spencer-Brown den Re-entry definieren wird: Während erste Gleichungen entweder allen Zeichen oder einigen Zeichen Funktionswerte zuordnen, sind Gleichungen zweiter Ordnung solche Gleichungen, die dem Werteverlauf einer Gleichung erster Ordnung im Ganzen einen Funktionswert zuordnen. Wenn diese Zuordnung bestimmte Eigenschaften erfüllt, wird Spencer-Brown vom Re-entry sprechen.

Noch einen Schritt weiter geht die Frage nach den Eigenschaften des Tableaus, auf dem alle Werteverläufe von Theoremen und Funktionen dargestellt sind. Spencer-Brown legt ohne es explizit auszuführen nahe, dass dies Tableau mit der Ebene der komplexen Zahlen verglichen werden kann. Darauf wird bei der Einführung des Re-entry zurückgekommen.

– Opazität und Transparenz von Arithmetik und Algebra

Das Verhältnis von Arithmetik und Algebra wirft weitreichende philosophische Fragen auf: Die Arithmetik ist einzigartig und opak (dunkel, verschwommen, lichtundurchlässig), die Algebra ist transparent und durchsichtig. Innerhalb der Algebra lässt sich alles aus den vorgegebenen Grundregeln ableiten, die Spencer-Brown als Initiale bezeichnet. Die algebraischen Ableitungen sind für ihn keine Beweise mit jeweils eigenen Beweisideen, sondern lediglich Konsequenzen, die sich formal aus den Initialien ergeben, und die auch ein Computer ausführen kann. In der Arithmetik gibt es dagegen eine unendliche Fülle von Möglichkeiten, die von einem endlichen Wesen wie dem Menschen und seiner Rechenkunst nie vollständig ausgeschöpft werden kann. Es gibt immer bislang unbekannte Möglichkeiten, die von neuen Mathematikern entdeckt werden können. (Das ist zugleich die Aussage von Gödels Unvollständigkeitssätzen. Die Arithmetik wird nie vollständig alle Möglichkeiten beschreiben können.) Sie enthält immer etwas, was für die Algebra verborgen (opak) bleibt.

Mit der Arithmetik werden Werteverläufe und die ihnen zugrundeliegenden Regeln erkannt. Der einfachste Fall ist das Axiom der natürlichen Zahlen, wonach jeweils zwei benachbarte natürliche Zahlen durch den Abstand 1 voneinander getrennt sind. Dagegen ist bis heute ungeklärt, wie der Werteverlauf der Primzahlen aussieht. Mit Euklid ist zwar bewiesen, dass es unendlich viele Primzahlen gibt, aber keiner weiß, wie sich ihre Abstände entwickeln. Eine der am meisten erforschten und dennoch unbewiesenen mathematischen Vermutungen stammt von dem Mathematiker Bernhard Riemann (1826-1866), der 1859 mithilfe der imaginären Zahlen immerhin eine wichtige Abschätzung für die Verteilung der Primzahlen postulierte.

Die Primzahlen und ihre Eigenschaften sind das beste Beispiel, was Spencer-Brown mit der Opazität der Arithmetik meint. Trotz aller fortgeschrittenen Methoden der Mathematik gelingt keine Lösung. Für Spencer-Brown ist das eine Indikation, dass es nach seiner Überzeugung nie gelingen wird, die Fülle der Arithmetik völlig zu überschauen. Er brachte das in die unscheinbare Aussage: »Principle of transmission: With regard to the oscillation of a variable, the space outside the variable is either transparent or opaque.« (LoF, 48). Mit »oscillation of a variable« ist der Werteverlauf beispielweise der Primzahlen gemeint.

Damit hat sich das Verhältnis von Mathematik und Philosophie radikal verschoben. Seit Descartes war die neuzeitliche Philosophie überzeugt, dass es einer in sich völlig transparenten Methode möglich sein müsste, alle Dinge zu durchschauen. Aufgabe der Philosophen ist es, diese Methode zu entwickeln, und von den Dingen wurde angenommen, dass sie im Prinzip transparent sind, d.h. metaphorisch gesprochen, sich dem Licht einer überlegenen Methode nicht widersetzen. Möglicherweise ist es sogar in der Geschichte der Natur die Aufgabe des Menschen, eine solche Methode zu finden und die Dinge aus ihrer Verborgenheit zu befreien. Sie warten gewissermaßen darauf, vom Menschen aus ihrer Dunkelheit erlöst zu werden.

Die Gegenposition geht bis zu Heraklit zurück, von dem der Spruch überliefert ist, »die Natur liebt es sich zu ververbergen« (Fragmente, B 123). Während sich seit Descartes die Philosophen von der Mathematik Unterstützung versprochen haben, mit mathematischer Strenge eine Methode zu finden, der sich alles öffnet, kehrt erst Spencer-Brown das Verhältnis um. Für ihn wiederholt sich nicht nur  innerhalb  der Mathematik das Verhältnis von Opazität und Transparenz, weswegen die Mathematik nicht einfach auf die Seite der Transparenz geschlagen werden kann, sondern für ihn war es fatal und eine durchgreifende Lähmung der mathematischen Kreativität, an und mit der Mathematik nur dasjenige zu suchen, was transparent ist. Der Siegeszug der mathematisierten Wissenschaften seit dem 19. Jahrhundert ist für ihn ein Kartenhaus, welches sofort zusammenfällt, wenn betrachtet wird, wie die Mathematik im Innern vorgeht. Sie hat für ihn mit der Dominanz der bloßen Herleitung von Konsequenzen in einer Algebra ihre Lebendigkeit verloren. Für diese Richtung steht für ihn exemplarisch die Principia Mathematica von Russell und Whitehead.

Kant hatte mit seiner Lehre des Ding-an-sich als erster die Erfolgsaussichten von Descartes in Frage gestellt, aber offen gelassen, ob sich die Unergründlichkeit des Dinges-an-sich dennoch paradoxerweise bestimmen lässt. Die Mathematik stand für ihn auf Seiten einer transparenten Wissenschaft und war für ihn der Garant der Vernunft. Wann immer er die Freiheit der Vernunft beschreiben wollte, griff er auf Bilder aus der Mathematik zurück, so z.B. in seiner Idee einer Sphäre des Begriffs, die sich von einem bestimmten Standort aus überschauen lässt und insofern transparent ist (Kant Kritik der reinen Vernunft, B 886). Allerdings erkannte er, dass das nur gilt, wenn die Sphäre nicht gekrümmt ist. Wenn das Wissen auf einer gekrümmten Fläche angeordnet ist, gibt es keinen Punkt, von dem aus es sich völlig überschauen lässt. Durch die Krümmung entzieht sich dem Blick, was jenseits des Horizonts liegt. Daher gibt es gute Gründe, die Krümmung als die elementare Eigenschaft der Opazität der Dinge zu verstehen. Im Sinne von Spencer-Brown befindet sich die Arithmetik auf einer gekrümmten Fläche, und mit der Algebra lässt sich nie alles übersehen, was es auf der gekrümmten Fläche gibt. Es bleibt nichts anderes übrig, als den eigenen Standort auf der gekrümmten Fläche zu verändern. Wer sich auf der gekrümmten Fläche bewegt, dem erschließen sich neue Bereiche, die sichtbar werden, aber andere Bereiche entziehen sich mit der gleichen Bewegung und verschwinden hinter dem Horizont. Nie ist alles zu übersehen. Die Kant nachfolgende Naturwissenschaft hofft bis heute, für die Krümmung ein mathematisches Maß zu finden und mit dem Maß ihre Opazität in Transparenz zu wandeln. Wem es gelingt, seinen Standort so zu ändern, dass er nicht mehr auf die gekrümmte Fläche, sondern auf ihre Maße schaut, der könnte auf dem Weg über die Maße eine Gesamtübesicht erhalten. Ansätze setze sehe ich in Hegels Theorie der realen Maße, doch gibt bisher keine Umsetzungen.

Nach Kant trennte sich die Philosophie in zwei Richtungen. (i) Die einen suchten entweder nach einer neuen Methode, der sich kein Objekt entziehen kann. Hauptvertreter sind Hegel mit der dialektischen Methode (HW 6.551) und alle diejenigen, die ihm folgen. Oder sie hofften, innerhalb der Mathematik Sicherungen einzubauen, die ihre volle Transparenz garantiert. (ii) Die anderen zogen aus der Lehre vom Ding-an-sich die Konsequenz, dass am Denken dessen prinzipielle Grenzen nachweisbar sind. Nietzsche traf es auf den Punkt, als er vom »Aberglauben der Logiker« sprach, sie könnten mit Descartes an ihrem eigenen Denken erkennen, dass es ein ‘Ich’, gibt, das denkt, während es für ihn genauso denkbar ist, »dass ein Gedanke kommt, wenn ‘er’ will, und nicht wenn ‘ich’ will« (Nietzsche Jenseits von Gut und Böse, 1. Hauptstück, Kapitel 17). Das Ich kann nie die Überfülle aller Gedanken überschauen und muss immer damit rechnen, dass sich neue Gedanken von sich aus melden und dem Ich zugänglich werden.

Seither wird von den Nachfolgern Nietzsches von der Opazität des Denkens gesprochen. Für sie folgt aus der Opazität der Dinge zwangsläufig, dass auch das Denken seine Transparenz verliert, an die noch Descartes glaubte, wenn es sich selbstbezüglich als sein eigenes Objekt untersucht. So sieht Heidegger in einer Deutung durch Franco Volpi in Sein und Zeit »die Identität des menschlichen Lebens [...] nicht allein in der Transparenz rein rationaler Selbstdarstellung und Selbstbestimmung, sondern ebenso in der unverfügbaren Opazität seiner Stimmungen, für welche die Befindlichkeit die ontologische Möglichkeitsbedingung sein soll.« (Volpi, 43). Für Sartre »verdinglicht das reflektierende Bewußtsein sein Je zu einem Verdichtungszentrum (centre d'opacité), das im reflektierten Bewußtsein als 'die Psyche' (Moi/Ego) ein Eigenleben zu führen scheint: Bewußtsein (Je) – Moi – Leib.« (Scheier, Luhmanns Schatten, 69 mit Bezug auf Sartre Transzendenz des Ego). Und Adorno wendet sich direkt gegen Hegel:

»Im emphatischen Sinn bedurfte er (Hegel) der Sprache nicht, weil bei ihm alles, auch das Sprachlose und Opake, Geist sein sollte. Jene Supposition ist nicht zu retten. Wohl aber transzendiert das in keinen vorgedachten Zusammenhang Auflösliche als Nichtidentisches von sich aus seine Verschlossenheit. Es kommuniziert mit dem, wovon der Begriff es trennte. Opak ist es nur für den Totalitätsanspruch der Identität; seinem Druck widersteht es. Als solches jedoch sucht es nach dem Laut. Durch die Sprache lost es sich aus dem Bann seiner Selbstheit.« (Adorno Negative Dialektik, 162)

Bei Spencer-Brown ist dieser Konflikt in die Mathematik hineingenommen. Für ihn kann die Mathematik erst wieder zu neuem Leben erwachen, wenn sie den Anspruch auf restlose Transparenz aufgibt und die damit verbundene Selbstbeschränkung auf Methoden, die diesem Anspruch genügen. Und die Philosophie muss nicht dabei stehen bleiben, entweder die Opazität der Dinge zu fordern oder zu negieren, sondern sie kann dank der Kreativität der Mathematik diese Frage von immer neuen Seiten sehen, wenn erst einmal wieder Bewegung in die Mathematik kommt. Es zeigt für mich den betrüblichen Zustand, in dem sich heute nicht nur die Mathematik, sondern auch die Philosophie befindet, wenn diese außer durch den philosophie-skeptischen Soziologen Luhmann die Arbeiten von Spencer-Brown nicht einmal zur Kenntnis nimmt.

Re-entry

Die Lehre vom Re-entry ist das Herzstück der Laws of Form. Sie ist zugleich die einzige Idee von Spencer-Brown, die eine gewisse Popularität gewonnen hat. Re-entry kann in einer ersten Annäherung sowohl als Resonanz, Rekursion, Feedback, Rückkopplung, Selbstreferenz wie auch als Reflexivität von Begriffen oder von miteinander kommunizierenden Menschen verstanden werden, die aufeinander Bezug nehmen. Sie ist vor allem von der Theorie selbstreferentieller Systeme wie von Anwendungen in der Soziologie und Psychologie aufgenommen worden, insbesondere dem radikalen Konstruktivismus und Systemtheorien verschiedenster Art bis zur systemischen Psychologie.

Diese Anwendungen lösen die Idee des Re-entry aus dem Kontext von Proto-Arithmetik und Proto-Algebra, in dem er bei Spencer-Brown steht. Ohne sich weiter um die diffizilen arithmetischen und algebraischen Operationen in den Laws of Form zu kümmern, übernehmen sie den Grundgedanken, dass Spencer-Brown eine Bewegung betrachtet, die sich von einem System löst und per Re-entry wieder in sie zurückzukehren vermag. Wenn sie zurückkehrt, wird sie nicht nur von dem System wieder aufgenommen, sondern der Re-entry erzeugt dort eine innere Bewegung und muss – im Sprachgebrauch von Lacan – vernäht werden. Was hier im Einzelnen geschieht, wird im Kontext des jeweils betrachteten Systems genauer untersucht, sei es eine Familie, eine Betriebsorganisation oder die Gesellschaft im Ganzen. In allen Fällen kann etwas abgedrängt und isoliert werden, bis es sich abkoppelt. Das löst sowohl im System wie in dem isolierten Element eine Krise aus, die durch den Re-entry gelöst werden kann. Da Spencer-Brown sehr an Fragen der Psychologie interessiert war, gehe ich davon aus, dass er immer Beispiele und Anwendungen dieser Art im Blick hatte. In den Laws of Form nimmt er darauf jedoch keinen Bezug, sondern beschränkt sich auf Fragestellungen der Logik und der Mathematik. Mir ist daher zweierlei wichtig:

(i) Auf welche Fragen der Mathematik gibt Spencer-Brown eine völlig neue und originelle Antwort? Das sind für mich vor allem der Übergang von den natürlichen zu den transfiniten Zahlen und die Algorithmen, mit denen irrationale Zahlen beliebig angenähert, aber nie erreicht werden. In beiden Fällen liegen  Prozesse  vor, die sich grundsätzlich von den gewöhnlichen arithmetischen Operationen unterscheiden. Einen Re-entry kann es für Spencer-Brown nur bei unendlichen Prozessen und nicht bei gewöhnlichen, endlichen arithmetischen Operationen geben.

(ii) Welche Voraussetzungen müssen für Spencer-Brown gegeben sein, damit es zu einem Re-entry kommen kann? Ein Re-entry ist für ihn nur möglich, wenn sich eine Figur unendlich oft gleichförmig wiederholt, während die Arithmetik grundsätzlich nur mit Konstruktionen arbeitet, die endlich viele Schritte enthalten (9. Kanon; LoF, 54). Der Übergang zur Unendlichkeit gelingt erst, wenn in der Algebra Variablen betrachtet werden, die unabhängig von ihrem jeweiligen Inhalt sind, und wenn dank der Transparenz innerhalb der Algebra die Sicherheit besteht, dass es bei den unendlich vielen Wiederholungen zu keinen Nebenwirkungen und inneren Abweichungen kommt. Die einzelnen Wiederholungen sind völlig unabhängig voneinander. Mit dem Re-entry zeigt sich das Neue (und damit die relative Autonomie) der Algebra gegenüber der Arithmetik. In der Proto-Arithmetik gibt es noch keinen Re-entry. Im Gegenteil: Mit dem Re-entry kommt es zum »loss of connexion with arithmetic« (LoF, 58).

Mit dem Prozess, der zum Re-entry führt, ist eine Art innere Musikalität gegeben, die mit dem Re-entry in die Ordnung eingeführt wird, aus der sie hervorgeht. Es ist nicht nur eine Narbe oder ein Riss, die am Ort des Re-entry vernäht werden, sondern das bisher nur in seinen räumlichen, zeitlosen Beziehungen untersuchte System wird im Ganzen in eine Schwingung versetzt (beginnt zu oszillieren), woraus die Zeit und mit ihr eine neue Ordnung hervorgehen (die Emergenz). – Spencer-Brown hat nach eigener Aussage über 5 Jahre an diesem Kapitel gearbeitet (AUM, Session Two).

Mit den Übergängen zu den transfiniten und irrationalen Zahlen sind nicht nur die beiden in der Mathematik geläufigen Unendlichkeitsbegriffe verbunden (von Hegel als schlechte und wahre Unendlichkeit bezeichnet), sondern auch die beiden seit Aristoteles bekannten elementaren Eigenschaften der Zahlen: Die Transitivität der auf der Zahlenachse angeordneten Zahlen und die Kontinuität der reellen Zahlen. (Die kleiner-als-Relation ist ein Beispiel für Transitivität: Wenn x < y und y < z, gilt auch x < z.) Mit der Transitivität wird sichergestellt, dass unbegrenzt weitergezählt werden kann, und dank der Kontinuität existiert der Grenzwert der Annäherungsprozesse an Irrationalzahlen. Wenn Spencer-Brown mit seiner Idee des Re-entry dies Herzstück der Mathematik und der sich mit der Mathematik beschäftigenden Philosophie trifft, sollte das prinzipielle Konsequenzen für das Grundverständnis der Mathematik haben. Diese können erst sichtbar werden, wenn der Re-entry nicht nur als eine allgemeine Eigenschaft von Systemen angesehen wird, die über Rückkopplung verfügen, sondern mit Spencer-Brown genauer als eine spezifische Wechselbeziehung der mit diesen Systemen gegebenen internen Arithmetik und Algebra.

– Prozesse in der gewöhnlichen Mathematik und bei Spencer-Brown

Vorbilder (Modelle) für den Re-entry sind nach meinem Eindruck die Konstruktion der ersten transfiniten Zahl ω bei Cantor und der Grenzübergang, der zur Annäherung von Irrationalzahlen wie wurzel 2 führt.

Transfinite Zahlen Beim Zählen 1, 2, 3, … n, n+1, … wird formal betrachtet unendlich oft die jeweils gleiche Nachfolger-Relation von n zu n + 1 wiederholt. Jenseits von allen abzählbaren natürlichen Zahlen liegt die transfinite Zahl ω. Sie kann nie durch Zählen erreicht werden und hat keinen Vorgänger, aber sie kann formal als Ergebnis der Regel des Zählens-im-Ganzen definiert werden. Es muss eine übergreifende Zahlenklasse (einen Grund) geben, in den der Grenzwert per Re-entry aufgenommen werden kann. Der Re-

Wo liegt ω, und wie wird ω in die Zahlen aufgenommen? Der Mathematiker Riemann hatte dafür eine sehr anschauliche Vorstellung gefunden: Wenn auf der Zahlengerade im Nullpunkt eine Kugel aufgelegt wird, deren Mittelpunkt mit der Zahl Null identisch ist und deren Kugeloberfläche die Zahlenachse an den beiden Punkten −1 und 1 schneidet, kann eindeutig jeder Zahl ein Punkt auf der Kugel zugeordnet werden, indem eine Verbindungslinie zwischen dem Nord- bzw. Südpol und der jeweiligen Zahl gezogen wird, die an genau einer Stelle die Kugel schneidet. Für Zahlen außerhalb der Kugel (das sind in der folgenden Abbildung die Zahlen größer als 1 oder kleiner als −1) liegt der Schnittpunkt auf der oberen Halbkugel, für Zahlen innerhalb der Kugel (das sind die Zahlen im Intervall [−1, 1]) auf der unteren Halbkugel. Der Nordpol entspricht der auf der Zahlengerade unendlich-fernen Zahl ω und ist mit diesem Konstruktionsverfahren in die Zahlenklasse aller Punkte auf der Kugel aufgenommen. Auf den Südpol wird die 0 abgebildet.

Riemann Zahlenkugel


Quelle: Wikipedia, abgerufen am 4.3.2017
Urheber: Von Jean-Christophe BENOIST - Eigenes Werk. Merci à Friedrich A. Lohmüller pour sa bibliothèque POV., CC BY-SA 3.0, Link

An dem Bild ist anschaulich zu sehen, wie ω auf der Zahlengerade unendlich weit weg liegt, jedoch auf der Zahlenkugel bei P(ω) ihren Ort findet. Wie ist das möglich? Mit der Zahlenkugel wurden implizit neue Eigenschaften der Zahlen eingeführt, die bei der Zahlengerade noch nicht gegeben sind: Die Zahlenkugel verfügt über eine zweite, unabhängige Dimension (ihre Höhe, die auch als imaginäre Achse oder als Zeit interpretiert werden kann), sie ist symmetrisch gegenüber Drehungen (zyklisch), und sie ist gekrümmt. Das sind Eigenschaften, die über die bisher bekannten Eigenschaften der Zahlen (Transitivität, Kontinuität) hinausgehen und bereits anschaulich nahelegen, dass eine Erweiterung und neue Definition der Zahlen notwendig wird, wenn Prozesse zugelassen werden sollen, die zu einem Re-entry führen.

Irrationalzahlen Für Irrationalzahlen wie wurzel2 gibt es keine Dezimaldarstellung. Sie beträgt ungefähr 1,414… und kann nur fortlaufend genauer bestimmt werden. Mit jedem Schritt wird das Intervall genauer eingegrenzt, in dem sie liegen muss. Zum Beispiel wird mit dem Ausdruck 1,414… gesagt, dass sie irgendwo im Intervall [1,414, 1,415] liegt. Und so wie Cantor mit ω für die transfiniten Zahlen eigene Symbole finden musste, mussten für die Irrationalzahlen mit dem Wurzelzeichen wurzel ein eigenes Symbol vereinbart werden.

Spencer-Brown erwähnt die Irrationalzahlen in den Notes, wenn er dort von Gleichungen zweiten Grades spricht. Er demonstriert das an der Quadratfunktion x² oder in seinem Kalkül aa = a und führt es dann am elementaren Polynom zweiter Ordnung aus. (LoF, 97f)

Was geschieht bei den beiden Übergängen zu den transfiniten und den Irrationalzahlen? Es handelt sich nicht mehr um eine gewöhnliche arithmetische Operation. Eine arithmetische Operation wie z.B. 7 + (10 · 3) / 91 kann zwar beliebig kompliziert sein. Letztlich handelt es sich jedoch immer um eine endliche Zeichenkette, die aus Operanden und Operatoren besteht (im einfachsten Fall aus den natürlichen Zahlen als Operanden und den üblichen Rechenregeln +, −, · und / als Operatoren), und die zu einer eindeutig bestimmten rationalen Zahl führt. Bei dem unendlichen Weiterzählen und bei den Annäherungs-Algorithmen zur Bestimmung von Irrationalzahlen wird dagegen eine arithmetische Operation unendlich oft  wiederholt  (iteriert). Erst die Wiederholung (Iteration) erzeugt einen Prozess.

Bei den arithmetischen Operationen wird die jeweilige Zahlenklasse nicht verlassen. Sie liefert eine neue Zahl und kann mit dieser identifiziert werden. Es ist gleichbedeutend, ob von 12 oder von 5 + 7 gesprochen wird. Bei Prozessen wird dagegen eine neue Zahl definiert, die in der vorher betrachteten Zahlenklasse noch nicht enthalten war. Weder ist ω eine natürliche Zahl noch wurzel2 eine rationale Zahl. Mit ihnen entsteht ein neuer Begriff von Zahlen: Zahlen sind alle Elemente, mit denen wie mit natürlichen und rationalen Zahlen gerechnet werden kann. Was eine Zahl ist und zur Gesamtheit der Zahlen gehört, wird schrittweise erschlossen. Die Idee der Zahl ist in sich unendlich, und es kann davon ausgegangen werden, dass immer neue Prozesse gefunden werden, um neue Zahlen mit Eigenschaften zu erkennen, die bisher unbekannt waren.

Unendliche Staffelung (echelon without limit) In der Proto-Arithmetik gibt es keine Nachfolger-Relation wie bei den natürlichen Zahlen, sondern eine Vielfalt von Möglichkeiten, ein Zeichen in ein anderes umzuwandeln. Wenn Spencer-Brown von Kalkulation spricht, meint er das Umwandeln. Das Rechnen mit den natürlichen Zahlen ist für ihn ein Beispiel von Umwandlungen, das er in seiner Logik verallgemeinert. Um einen Prozess zu finden, der dem unendlichen Weiterzählen bei den natürlichen Zahlen entspricht, ist eine Umwandlung zu bestimmen, die ebenfalls wie das Zählen unendlich oft wiederholt werden kann. Spencer-Brown konstruiert in der Proto-Algebra eine Regel, die vergleichbar der Nachfolger-Relation von n nach n + 1 beliebig fortgesetzt und für die analog zur Nachfolger-Relation ein unendlich-fernes Element definiert und per Re-entry in einen größeren Zahlenraum aufgenommen werden kann. Er zeigt, wie auf das Zeichen e1 pre eine Sequenz von 5 Einzelschritten angewandt werden kann, wodurch sich das Zeichen verdoppelt. (Das sind in seiner Terminologie die 5 Einzelschritte C5 Iteration, C1 Reflektion, J2 Distribution, C4 Occultation, C1 Reflektion; LoF 55). Wird diese Sequenz ausgeführt, so wird das Ausgangszeichen am Ende angehängt mit dem Ergebnis:

    e1 pre changedto e1 step2.

Mit dem Symbol changedto ist ausgesagt, dass beide Zeichen wertgleich sind. Auf das neue Zeichen kann wiederum die gleiche Sequenz aus 5 Einzelschritten angewandt werden, wodurch es sich erneut verlängert. Auf diese Weise gelingt eine Folge von Schritten, die der Nachfolger-Relation entspricht und unendlich oft wiederholt werden kann. Das Ergebnis ist für Spencer-Brown »an echelon without limit«, in seiner Zählweise die Konsequenz C7 (LoF, 56).

»Der nächste entscheidende Schritt besteht darin, sich vorzustellen, wenn es möglich ist (let us imagine, if we can, LoF, 55), dass der Prozess dieser Schrittsequenz end- oder zeitlos (timelessly) weiterläuft. Im Raum würde das ein Echelon (Staffelung) von a's und b's ohne Grenze ergeben. [...] Da die Bestimmung des Wertes eines Ausdrucks an die Regel der endlichen Demonstrierbarkeit gebunden ist, kann über den Wert eines Echelons ohne Grenzen keine Aussage gemacht werden.« (SWH, 175)

Mit diesen Schritten sind nicht alle Zeichen der Proto-Algebra aufgezählt, sondern nur eine bestimmte Teilmenge. Es ist davon auszugehen, dass es unendlich viele andere Möglichkeiten gibt, auf ähnliche Weise unendliche Folgen zu bilden. Es genügt jedoch, ein möglichst einfaches Beispiel gefunden zu haben und an ihm den Re-entry in die Proto-Algebra einzuführen.

Im Ergebnis schreibt Spencer-Brown ein Diagramm auf, mit dem der Re-entry definiert wird:

spencer brown re-entry prozess

E1 Re-entry
(LoF, 56)

Das Diagramm E1 ist ungewohnterweise blockweise von rechts nach links zu lesen. Spencer-Brown betrachtet in E1 das schrittweise Crossing von a zu b zu a zu b usf. a und b stehen als Variable der Proto-Algebra für Werte, die aus der Proto-Arithmetik eingesetzt werden können: Das sind im Kalkül von Spencer-Brown nur der Haken und das Ock. Der Übergang von a zu b wird beliebig oft wiederholt. Für die Wiederholung führt Spencer-Brown erst mit den drei Pünktchen … und dann mit f zwei neue Symbole ein, die bisher weder in seiner Proto-Arithmetik noch in seiner Proto-Algebra bekannt waren. Die drei Pünktchen übernimmt er von den entsprechenden, aus der gewöhnlichen Arithmetik bekannten Prozessen, wenn dort über n und n+1 hinaus immer weiter gezählt oder eine Irrationalzahl beliebig genau angenähert wird.

Mit dem Symbol f wird das Ergebnis eines Grenzübergangs beschrieben. Für Spencer-Brown kann a als ein Input angesehen werden, der mit den beiden aus der Proto-Arithmetik möglichen Werten gesättigt werden kann. Für diesen Input wird eine Regel gefunden, die unendlich oft wiederholt wird. Im Ergebnis entsteht ein Output f, der per Re-entry nicht einfach in die gleiche Zahlenmenge aufgenommen werden kann, in der der Input a lag, sondern diese Zahlenmenge auf ähnliche Weise erweitert wie die transfiniten Zahlen die Menge der natürlichen Zahlen und die Wurzeln die Menge der Rationalzahlen erweitern.

Mit f ist sowohl die Funktion (der Algorithmus, der Prozess) gemeint, mit dem in unendlich vielen Schritten ein Grenzwert angenähert wird, wie das Resultat des Prozesses (dieser Grenzwert selbst). Spencer-Brown hält konsequent seine Idee durch, Symbole einzuführen, die in Mehrfachbedeutungen sowohl eine Operation wie das Ergebnis dieser Operation sein können.

Die Zusammenfassung der unendlich vielen Crossings von a zu b zu a zu b usw. in f ist gebunden an drei Bedingungen:

(a) »eine klar bestimmte Folge von Schritten, es gibt also eine klare Konstruktionsanweisung«,
(b) sie »soll kontinuierlich fortgesetzt werden«,
(c) sie enthält ein »Muster der Sich-selbst-Gleichheit« (SWH, 175).

»The key is to see that the crossed part of the expression at every even depth is identical with the whole expression, which can thus be regarded as re-entering its own inner space at any even depth.« (LoF, 56)

Das Symbol f erinnert an die in der gewohnten Mathematik eingeführten Funktionen f(x). f ist definiert über den Werteverlauf einer unendlichen Folge untereinander formal gleicher Schritte, die sich einem Grenzwert nähern. Aber anders als bei den gewohnten Funktion f(x) ist f zugleich der Grenzwert selbst. f ist wie die transfinite Zahl ω oder die Wurzel Wurzel 2 ein Grenzwert, der in dem bisherigen Zeichenvorrat nicht vorhanden war. f ist weder der Haken noch das Ock. Mit f wird der Zeichenvorrat der Proto-Arithmetik in ähnlicher Weise erweitert wie der Zeichenvorrat der natürlichen Zahlen durch die transfiniten Zahlen und der rationalen Zahlen durch die Wurzeln.

Es ist daher missverständlich, wenn bisweilen der Re-entry so gedeutet wird, als würde irgendwie aus einer Basismenge ein Prozess hervorgehen, der sich von der Basismenge entfernt, bis er im Ergebnis einen Wert liefert, der wieder in die Basismenge zurückführt und auf einen dort bereits bekannten Wert trifft und von der Basismenge aufgenommen werden kann. Mit f wird die bereits bekannte Zahlenmenge erweitert. Mit Re-entry ist gemeint, dass die Erweiterung in einer Weise erfolgt, dass alle bisher gültigen Regeln erhalten bleiben und mit den neuen Werten auf die gleiche Weise gerechnet werden kann wie mit den bisher bekannten.

Treffender ist der Vergleich von f mit den imaginären Zahlen. Auf einer Achse sind alle Zeichen der Proto-Arithmetik angeordnet, und auf der senkrecht zu ihr stehenden Achse alle Zeichen, in die sie umgewandelt werden können. Das ergibt ein zweidimensionales Tableau, in dem der Werteverlauf eingetragen werden kann. Für Spencer-Brown liegt nahe, das zweidimensionale Tableau mit der zweidimensionalen Ebene der komplexen Zahlen zu vergleichen. Das führt das Rechnen buchstäblich in eine neue Ebene: Es wird nicht mehr nur mit den Zahlen gerechnet, die auf einer linearen Achse angeordnet sind, sondern es wird mit den Werten gerechnet, die im Tableau als Ergebnis einer vorausgegangenen Operation eingetragen sind. Für die Werte in der zweidimensionalen Ebene gelten eigene Regeln, die jedoch im Grenzübergang mit den üblichen Regeln übereinstimmen sollen, wenn auf der Ebene diejenigen Werte betrachtet werden, die dort auf der Zahlengerade liegen. Wenn Spencer-Brown den Werteverlauf von Prozessen, die zu einem Re-entry führen, auf der zweidimensionalen Ebene einträgt, legt er damit buchstäblich den Boden, auf dem eine sachliche Verbindung zu den imaginären Zahlen hergestellt werden kann. Da für ihn die imaginären Zahlen die Lösung der Russellschen Antinomie sind, hat er auf diese Weise einen Weg gefunden, für die Zeichen der Proto-Arithmetik nicht nur am Beispiel der unendlichen Staffelung eine Analogie zur Nachfolger-Relation zu finden, sondern auch den Übergang in die zweidimensionale Zahlenebene. Dieser Übergang ist nicht beliebig, sondern an feste Regeln gebunden. Dank dieser Regeln können die Paradoxien vermieden werden, die Russell und Whitehead gewissermaßen mit der Holzhammermethode mit dem Verbot negativ selbstbezüglicher, imprädikativer Urteile (vicious circle principle) vermeiden wollten. Der Re-entry tritt an die kritische Stelle negativer Selbstbezüglichkeit und sollte daher in einem weiteren Horizont die oft gesuchte Formalisierung der dialektischen Methode ermöglichen, wenn diese mit ihrer negativen Selbstbezüglichkeit definiert wird.

– Wellen und ihre Zeit (Time)

Mit den 3 Pünktchen ‘…’ und der Variable ‘f’ hat sich Spencer-Brown naheliegenderweise an Symbolen orientiert, die aus der gewohnten Mathematik bekannt sind. Die Besonderheit seines Kalküls liegt jedoch darin, dass er statt der üblichen Ziffern und Rechensymbole (Operationszeichen) nur die beiden Zeichen für Haken und Ock kennt, die er in der Doppelbedeutung als Operand und Operator gebraucht. Dank dieser Vereinfachung gelingt es ihm, an Grenzübergängen Eigenschaften aufzuzeigen, die weit über die bekannte Mathematik hinausgehen. Das führt in zwei Schritten zu einem Perspektivwechsel:

– Die kleinste Einheit des Grenzübergangs sind für ihn nicht mehr die Punkte, entlang derer der dem Grenzübergang zugrunde liegende Prozess verläuft, bis er den Grenzwert als einen neuen Punkt bestimmt, – so wie es aus dem Beispiel bekannt ist, wenn sich Achilles Punkt für Punkt der ihm vorauslaufenden Schildkröte nähert –, sondern die  Gestalt  des Grenzverlaufs im Ganzen. Das ist für ihn die Welle. Der Wellenberg steht für den Haken, das Wellental für das Ock. Mehr Zeichen gibt es in seiner Proto-Arithmetik nicht. Grenzübergänge können direkt auf einen bestimmten Punkt zusteuern oder aber ständig zwischen den beiden in der Proto-Algebra verfügbaren Werten oszillieren. Spencer-Brown nimmt vorweg, was später in der Katastrophentheorie mit ihren Bifurkationen und Attraktoren genauer ausgeführt wurde, und beschreibt gewissermaßen deren innerste Logik.

– Wenn er sich mit der Welle von den überlieferten Symbolen des Grenzübergangs löst und eine neue Sicht auf ihren Verlauf gewinnt, vermag er erstmals Grenzübergänge zu verschachteln. Damit ist nicht gemeint, dass wie z.B. bei Mehrfachintegralen Grenzübergänge einheitlich in mehreren Dimensionen betrachtet werden, sondern es kann innerhalb eines Grenzübergangs zu einem konträren Grenzübergang zweiter oder höherer Ordnung kommen (die er Gleichungen zweiten Grades nennt). Aus dem Wechselverhältnis zweier Grenzübergänge entsteht für ihn die Zeit.

Die Wellendarstellung und die in ihr enthaltene Zeit werden in einem komplexen Diagramm eingeführt, das zeilenweise zu lesen ist:

spencer brown time

Time as a Key
Quelle: LoF, 63, Figure 3

In der ersten Zeile ist die unendliche Staffelung mit den Variablen a und b gezeichnet. Ihr Ergebnis ist der Output f. In den weiteren Zeilen werden für a und b spezielle Werte eingesetzt. m und n stehen nicht für neue Variable, sondern mit m (marked state) ist der Haken gemeint, mit n (unmarked state) das Ock. Die beiden Konstanten m und n wurden erstmals für die Rule of dominance definiert (LoF, 15) und wieder aufgegriffen in LoF, 56. Die Häufung von Namen und Symbolen für Haken und Ock ist auf den ersten Blick verwirrend und unübersichtlich. Spencer-Brown hat zwar gute Gründe, mit diesen verschiedenen Bezeichnungen und Darstellungen jeweils bestimmte Aspekte klarer hervorzuheben, doch wäre es einfacher, so weit als möglich bei den beiden Urzeichen Haken und Ock zu bleiben.

In der zweiten Zeile werden sowohl für a wie auch für b jeweils das Ock (n, unmarked state) eingesetzt. Das fortlaufende Crossing der unendlichen Staffelung e1 pre wird mit dem unmarked state (Welle unten) begonnen, in den marked state gewechselt (Welle oben) usf., bis nach einer ungeraden Anzahl von Schritten wieder der unmarked state n erreicht ist.

In der dritten Zeile wird für a der Haken (marked state, m) und für b das Ock (unmarked state, n) eingesetzt. In diesem Fall beginnt die Welle oben mit dem marked state und endet nach einer ungeraden Anzahl von Schritten wieder oben im marked state.

Der entscheidende Schritt erfolgt in der vierten bis sechsten Zeile: Wellen können einander überlagern. Spencer-Brown spricht anschaulich von einem »dominant pulse« (LoF, 63) und einem »short pulse« (LoF, 64). Der dominant pulse beschreibt eine Grundschwingung, die erhalten bleibt, und der short pulse läuft erkennbar durch die Grundschwingung hindurch. In den Zeilen 4 bis 6 wird gezeigt, wie das Durchlaufen an den drei Zeitpunkten t₁, t₂, t₃ abzulesen ist.

Mit der Verschachtelung konträrer Grenzübergänge entsteht innerhalb der Logik die Zeit. Der erste Grenzübergang erfolgt für ihn räumlich (so wie es in der räumlichen Figur der unendlichen Staffelung dargestellt wurde), der zweite dagegen zeitlich.

»Since we do not wish, if we can avoid it, to leave the form, the state we envisage is not in space but in time.« (LoF, 58)

Ohne die Unterscheidung in dominant pulse und short pulse bliebe die Zeit unvollständig. Sie bliebe auf einem Stand, den Felix Lau treffend beschreibt:

»In seiner Rezension der Laws of Form hat Heinz von Foerster auf die Entdeckung bzw. Entwicklung der Zeit aus den Axiomen euphorisch hingewiesen. (Lau, 93) [...] Mit der Oszillation geht kein Maß einher, was für unser gängiges Konzept von Zeit unentbehrlich ist. Diese 'erste Zeit' hat keine Dauer, kein Maß; sie ist lediglich der Wechsel, das Hin-und-her zwischen den Zuständen. Die Oszillation hat eben noch keine Geschwindigkeit, für die man Maßeinheiten von Raum und Zeit bräuchte.« (Lau, 94)

Anmerkung: Erst mit dem short pulse kann das Maß der Zeit beschrieben werden. dominant pulse und short pulse lassen sich für mich als Grundrauschen eines Systems (die Systembewegtheit) und Bewegung innerhalb des Systems verstehen. Spencer-Brown betrachtet jedoch nicht weiter ihr Verhältnis. In Erweiterung seiner Arbeit kann ausgehend von der Mechanik mit dem Quadrat für beide Pulse ein gemeinsames, inneres Maß gefunden werden. (Siehe zum Quadrat den Beitrag über dynamische Zahlen).

Das entspricht der klassischen Vorstellung der Zeit und wird bei Spencer-Brown bis in die allgemeinst-mögliche Ebene der Logik gebracht: Zeit und Bewegung können nur beschrieben werden, wenn sich ein einzelnes Objekt vor einem Hintergrund bewegt, der entweder ruht oder sich gleichmäßig bewegt, wie z.B. die Bewegung des Mondes vor dem Hintergrund des Sternenhimmels.

Spencer-Brown ist sich bewusst, dass die von ihm bisher benutzten Symbole ‘…’ und ‘f’ für den Re-entry missverständlich sind. Er bildet daher für den Re-entry ein eigenes Symbol mit großer Suggestivkraft:

spencer brown reentry     spencer brown modulator

Das Symbol zeigt die zurücklaufende Bewegung. Spencer-Brown war überzeugt, mit dieser Entdeckung den gesuchten gordischen Knoten gefunden zu haben. Er hat eine einheitliche Formalisierung von Grenzübergängen gefunden, die zudem ineinander verschachtelt werden können. Mit ihnen hat er die imaginären Zahlen und innerhalb der Logik die Zeit in ihrer Unterscheidung vom Raum entwickelt. Und er kommt in die Lage, komplexe oszillierende Figuren in Schaltplänen aufzuzeichnen, die bereits der Art der von ihm betriebenen Programmierung in technischen Anwendungen sehr nahe kommt.

Anmerkung: In einem weiteren anschaulichen Bild hat er den Re-entry als Tunnelung verstanden. Das zeigt bereits das Symbol, wenn das neue Zeichen die beiden Variablen a und b unterläuft und wie durch einen Tunnel an den Anfang zurückkehrt. In einem weiterführenden Kommentar wird ausgeführt, wie mit dem Tunnel und der Tunnelung ein vertieftes Verständnis von Grund und Medium gefunden werden.

– Trägheit und Selbstorganisation der Schaltkreise

In einem letzten Schritt erweitert Spencer-Brown die Algorithmen zu Schaltkreisen (circuits). Auch wenn das nicht direkt sichtbar ist, ist dies der radikalste Schritt seiner Logik: Mit ihm verlässt er nicht nur das Gebiet der klassischen Logik, sondern überhaupt der menschlichen Sprache und ihrer Symbolsysteme und baut an entscheidender Stelle auf ein Zusammenwirken logischer Ideen und der Eigendynamik der mit ihrer Hilfe entworfenen technischen Systeme. Die von ihm skizzierten Schaltkreise liefern erst in ihrer Realisierung dank der mit ihnen physisch gegebenen Trägheit und Selbstorganisation die gewünschten Ergebnisse. Das ist allerdings an dem von ihm dargestellten Schaltplänen nur indirekt abzulesen. Sicher werden Schaltkreise heute genauer entworfen und konstruiert als zur Zeit von Spencer-Brown, und es wäre falsch, seine Entwürfe für den aktuellen Stand der Entwicklung zu halten. Aber es wäre auch falsch, seinen Ansatz von heute aus grundsätzlich in Frage zu stellen. Er hat nicht den Anspruch, ein Lehrbuch für den Entwurf von technischen Schaltkreisen zu schreiben, sondern trifft mit diesem Beispiel ein grundsätzliches Thema, das immer auftritt, wenn im Wechselspiel von Logik und technischen Anwendungen neue Wege gegangen werden.

Anfangs baut die Logik mit ihren technischen Entwürfen und deren Realisationen auf noch unbekannte Materialeigenschaften, die erst im Verlauf weiterer Untersuchungen und Erfahrungen genauer geklärt werden. Mithilfe der Logik werden technische Ideen entworfen, deren Ablauf und Ausgang zunächst nur unbestimmt vorhersagbar sind. Es gilt nicht mehr wie für Kant, dass sich »der Gegenstand (als Objekt der Sinne) nach der Beschaffenheit unseres Anschauungsvermögens« richten müsse (Kant, KrV, B XVI), sondern beide sind gleichberechtigt. Wer wie Spencer-Brown einen Schaltkreis entwirft, kann sich am Anfang nicht sicher sein, ob und wie er funktionieren wird. Aus der chemischen Forschung ist bekannt, dass die meisten Entdeckungen unerwartet und überraschend kamen, und so sieht es Spencer-Brown auch im Entwurf von Schaltkreisen und sucht hierfür die grundlegende Logik. Es wird nicht einfach etwas vorgegeben, sondern es werden Prozesse angestoßen und die neuen Erkenntnisse des Forschers sind davon abhängig, wie aufmerksam er gegenüber unerwarteten Abläufen ist. Das gibt der Logik einen völlig neuen Zuschnitt und war nach meinem Eindruck das ursprüngliche Ziel, um das es Spencer-Brown nach seinen eigenen Erfahrungen mit dem Entwurf von Schaltkreisen ging. Für mich ist es von gleicher grundlegender Bedeutung wie die Begriffsschrift von Frege, mit der der linguistic turn begründet wurde. Wenn die Gesetze der Form den Entwurf von Schaltkreisen erreicht haben, sucht Spencer-Brown nicht mehr nur nach einem Verständnis, wie sich die Sprache des monologisierenden Denkens des Forschers grammatisch oder syntaktisch beschreiben lässt, sondern übergreifend nach der Sprache, die sich im Wechselprozess des Forschers mit seinem Objekt entwickelt. Die von ihm entworfenen Schaltpläne enthalten einen Freiheitsgrad, der dem tatsächlichen Ablauf der mit ihnen realisierten technischen Systeme ausreichend Spielraum gibt. Wer selbst programmiert oder mit Ingenieuren zusammengearbeitet hat, wird irgendwann von der Erfahrung überrascht, dass die eigenen Programme und technischen Systeme völlig anders genutzt werden und Eigenschaften zeigen, mit denen der Entwickler ursprünglich nicht gerechnet hatte.

Die von Spencer-Brown eingeführten Symbole und Diagramme sind so ungewohnt, dass es einiger Anstrengung und Konzentration bedarf, um sein Anliegen zu verstehen. Wer vor allen graphischen Darstellungen Angst hat, die mit Mathematik und Technik zu tun haben, muss eine ähnliche Hürde überwinden wie es notwendig war, als erstmals der spontane Erzählfluss von Menschen formalisiert wurde in grammatischen Regeln und logischen Schlussformen.

Mit Schaltkreisen werden technische Systeme betrachtet, die sich in jeweils unterschiedlichen Zuständen befinden können. Jeder neue Input kann den Schaltkreis in einen neuen Zustand versetzen. So wie die Proto-Arithmetik über unendlich viele und niemals vollständig zu übersehene Formen verfügt, kann niemand vollständig voraussagen, mit welchem Input eine Maschine versehen werden kann und in welchen Zustand sie dieser Input versetzen wird. Mit den Übergängen eines Schaltkreises von einem Zustand in den anderen ist zusätzlich zu Raum und Zeit eine dritte, unabhängige Achse gegeben. Beim Aufbau eines neuen Zustandes geschieht zweierlei: Zum einen gibt es eine gewisse Trägheit, den alten Zustand so weit als möglich zu erhalten. Das gilt auch für den Betrachter, der sich so weit wie möglich daran orientiert, was erhalten bleibt und welche Änderungen eintreten. Zum anderen kann eine Selbstorganisation (Selbstoptimierung, Ausbalancierung) erfolgen. Im neuen Zustand bilden sich größtmögliche, zusammenhängende Teilbereiche aus, die im Innern konsistent sind und miteinander mit widerspruchsfreien Wegen verbunden werden. Spencer-Brown deutet die Einführung einer neuen Dimension nur beiläufig an und untersucht deren Konsequenzen nicht weiter: »We are now in difficulties through attempting to write in two dimensions what is clearly represented in three dimensions.« (LoF, 66)

Anmerkung: Das Verhältnis eines Schaltkreises zu seinen Zuständen kann verglichen werden mit dem Verhältnis eines Substrats zu seinen Zuständen. Standardbeispiel ist das Substrat Wasser mit den Zuständen Eis, Flüssigkeit und Gas. Mit jeder Zustandsänderung entsteht eine neue Ordnung. Der Übergang von einem Zustand in den anderen wird als Emergenz verstanden. Die jeweilige Ordnung ist zu erklären aus einer Selbstorganisation des Substrats im neuen Zustand. Ich kann mir vorstellen, dass es möglich sein sollte, die Ausführungen von Spencer-Brown in dieser Richtung fortzuführen und der Theorie der Selbstorganisation und Emergenz eine logische Grundlage zu geben.

Wie das gemeint ist, erschließt sich jedoch keineswegs von allein. Spencer-Brown wählt als Beispiel einen Schaltkreis, mit dem eine Welle moduliert wird. Die Modulation verändert eine einlaufende Welle (den Input a) in eine auslaufende Welle (den Output f), die nur noch eine halb so große Frequenz hat. Um die Situation besser beschreiben zu können, habe ich nicht nur die Bezeichnungen von Input und Output übernommen, sondern – den weiterführenden Darstellungen von Kauffman folgend – alle marker (Schaltelemente) mit Buchstaben benannt, übernehme jedoch das von Spencer-Brown in Laws of Form eingeführte Beispiel.

spencer brown schaltkreis

E4 Schaltplan eines Reduktor
Der Reduktor (reductor) reduziert die Frequenz einer Welle a auf die Hälfte und erzeugt mit f und p zwei Varianten einer Welle von halb so großer Frequenz. Quelle: LoF, 67 mit eigener Ergänzung der Namen für die marker

Der Schaltkreis enthält einen Eingang a, zwei Ausgänge f und p sowie die 8 Schaltelemente (marker) b, c, d, e, g, h, i, j. Jeder marker invertiert das bei ihm eingehende Signal: Die Umwandlung kann in dem Kalkül von Spencer-Brown nichts anderes tun, als zwischen den beiden verfügbaren Grundelementen Haken und Ock hin und her zu springen: Besteht der Input aus einem Haken, wird er in ein Ock umgewandelt, und umgekehrt ein Ock in einen Haken. Spencer-Brown wählt als Darstellung jedoch nicht mehr Haken und Ock, sondern eine Welle. Das Wellental steht für das Ock, der Wellenberg für den Haken. Mit dieser Darstellung kann der Verlauf eines Inputs und seine Modulation in seiner Gesamtgestalt beschrieben werden. Eine Welle wird schrittweise in eine andere Welle von anderer Gestalt moduliert.

Die Aufgabenstellung des Schaltkreises ist klar erkennbar und erschließt sich intuitiv: Eine einlaufende Welle a soll in eine auslaufende Welle f von halber Frequenz umgewandelt werden. Doch was geschieht an den einzelnen Schaltelementen? Hier führt die spontane Intuition in die Irre: Es wird nicht schrittweise an jedem Schaltelement die einlaufende Welle in eine andere Welle verwandelt, wie sie im Schaltplan dargestellt ist, bis der Output f (bzw. p) erreicht ist. Sondern um den Schaltplan zu verstehen, ist die verborgene dritte Dimension zu erkennen. Das hat Spencer-Brown erst später in einem unveröffentlichten Text weiter ausgeführt. Vor allem aber ist es Louis Kauffman gelungen, den Sachverhalt besser aufzuklären.

Die einlaufende Welle a betritt den Schaltkreis schrittweise. Sie setzt sich in diesem Beispiel aus 4 Elementen (4 elementaren Inputs) zusammen: Wellenberg - Wellental - Wellenberg - Wellental. Jedes Element der einlaufenden Welle betritt einzeln den Schaltkreis. Spencer-Brown wird daher von 4 strokes (Impulsen) sprechen (R, 10). Für jeden einzelnen stroke ist zu betrachten, wie er an den einzelnen Schaltelementen umgewandelt wird und in welchen Zustand er den Schaltkreis versetzt. Wenn diese Idee verstanden ist, kann aus dem Bild von E4 abgelesen werden, was z.B. beim ersten stroke geschieht. Dafür ist jeweils der erste Abschnitt der in dem Diagramm eingezeichneten Wellen auszuwerten. In der graphischen Darstellung folge ich Kauffman 2006. Er stellt für die einzelnen strokes den Wellenberg (Haken) durch einen Vollkreis und das Wellental (Ock) durch einen Leerkreis dar. Das Ergebnis ist sehr anschaulich, denn es zeigt, wie jedes Schaltelement Vollkreise in Leerkreise und Leerkreise in Vollkreise umwandelt.

spencer brown schaltkreis stroke 1

E4 im Zustand nach dem ersten stroke

Dieses Bild enthält jedoch zwei Konflikte: Von b nach i und von g nach h folgen jeweils zwei Leerkreise aufeinander. Das ist nicht möglich, und diese Verbindungen können in diesem Zustand nicht stabil aufgebaut werden. Es sind nur zwei Teilbereiche konsistent, die in der folgenden Figur mit einem blauen Kasten hervorgehoben sind. Die Konflikte von b nach i und von g nach h können nur umgangen werden, wenn der Weg von b nach i stillgelegt, und wenn nicht direkt von g nach h, sondern auf dem Umweg über j gegangen wird. Die beiden blau umrandeten, konsistenten Teilbereiche sind nur durch die beiden Wege von g nach j und von j nach h verbunden. Einen Schlenker dieser Art bezeichnet Spencer-Brown als Einführung einer imaginären Achse. Die direkte Verbindung muss verlassen werden, und es ist eine neue (die imaginäre) Achse aufzuschlagen, um den Umweg einzeichnen zu können, der gegangen werden muss.

Zustandswechsel und Selbstorganisationen dieser Art sind in der gewohnten Mathematik nicht möglich. Sie müssen im Verlaufe einer kurzen Zeitspanne aufgebaut werden, während in der gewohnten Mathematik davon ausgegangen wird, dass alles innerhalb eines einzigen Zeitmoments (instantan) erfolgt. Die Mathematik kennt keine Gleichungen, die Fehler enthalten und sich im Verlaufe zeitlicher Prozesse von allein beheben. Die Logik von Spencer-Brown führt dagegen mit den Schaltkreisen ein Medium ein, das über diese Fähigkeiten verfügt. Sie erfolgt im Wechselspiel mit dem Medium und vertraut auf dessen Trägheit und Selbstorganisation, um zur Lösung des Vorhabens beizutragen. Das ist eine fundamental neue Grundeinstellung wissenschaftlichen Arbeitens, die Spencer-Brown zu einem Wechsel vom westlichen zum buddhistischen Denken veranlasst hat.

»Mathematically, since there is no time in mathematical expressions, everything happens all at once, the short signal from i to j is never there, since there is no time for it to exist. The propagation-time of the signal through the leads and markers has not just become very small: in mathematics it has vanished completely, and this why we say the signal is ‘imaginary’. But like the other imaginary i in numerical algebra, which has similar 'magical' characteristics, the fact that it exists in the mathematical circuit, not as a reality, but as a threat, should j even consider doing the wrong thing, is sufficient to keep j honest. The threat never has to be carried out in reality, in fact mathematically it cannot be. But its mere presence is sufficient. It is what we mean, in chess, when we say 'the threat is more powerful than the execution'.« (R, 9)

spencer brown schaltkreis stroke 1 z

Stabile Teilbereiche und Konflikte von E4 nach dem ersten stroke

Der obere Bereich zeigt für den ersten stroke die gewünschte Umwandlung von a zu f, der untere Bereich muss ausgeschlossen werden. p wird nur erreicht, wenn vom Input a über g und j gegangen wird.

Warum wird der untere Bereich nicht einfach weggelassen und ausschließlich der obere Bereich konstruiert? Das zeigt der 2. stroke, wenn am Input a auf den Wellenberg ein Wellental folgt. In diesem Fall muss der Input a über den mittleren Weg g und h gehen und schwenkt erst abschließend über e zum Output f, während sich im oberen Bereich Konflikte ergeben, wenn von b nach c und weiter nach d jeweils Leerkreise erhalten bleiben.

spencer brown schaltkreis stroke 2 z

Stabile Teilbereiche und Konflikte von E4 nach dem zweiten stroke

Was geschieht beim 3. stroke? Es wäre zu erwarten, dass sich mit dem 3. stroke einfach der 1. stroke wiederholt, da bei a erneut ein Wellenberg den Schaltkreis betritt. Wenn es so wäre, würde jedoch das Ziel verfehlt, denn dann würde bei f erneut ein Wellenberg (Vollkreis) erzeugt. Statt eine Welle von halber Frequenz zu erzeugen, würde eine Welle erzeugt, die geradlinig nur aus Wellenbergen besteht. Stattdessen wird beim 3. stroke wie beim 2. stroke wiederum der mittlere Weg gegangen mit dem Ergebnis:

spencer brown schaltkreis stroke 3 z

Stabile Teilbereiche und Konflikte von E4 nach dem dritten stroke

Erst beim 4. stroke wird auf den oberen Weg zurückgekehrt. Gibt es eine Erklärung für dieses eigentümliche Verhalten? Der Schaltplan zeigt nur das Ergebnis, gibt jedoch keine Begründung. Offenbar war es eine empirische Beobachtung, dass sich die von Spencer-Brown 1961 entworfenen und realisierten Schaltkreise so verhalten haben ohne dass er es erklären konnte. Kauffman hat es in mehreren Arbeiten weiter untersucht (und ihm ist es sogar gelungen, neue Schaltkreise mit dem gleichen Verhalten zu entwerfen und mit Spencer-Brown in eine Art freundschaftlichen Wettbewerb einzutreten, wer den einfachsten Schaltkreis mit den gewünschten Eigenschaften zu konstruieren vermag). Auch für ihn bleibt es jedoch letztlich »a black box B with input line z and output line d with this behaviour« (Kauffman 1995, 92), wobei er abweichend von Spencer-Brown den Input mit z statt mit a bezeichnet. Für ihn entstehen diese Zustände durch Zeitverzögerungen (time delays) aufgrund technischer Bedingungen des Schaltkreises, die jedoch nicht weiter begründet werden.

»As a model for action we assume that each change in z is held fixed long enough for the automaton to accomplish its transition to the next state. In terms of applications this means that the model assumes delays associated with each inverter. There are no delays associated with the connecting lines in the graph. This method of distributing the delays is a mathematical abstraction, but it is sufficiently realistic so that these circuits can actually work at the hardware level. In any given instantiation the delays are given up to the variation in the components. If the automaton is mathematically determinate (as in this example), then it will behave in the same way for any choice of actual delays – so long as the input varies more slowly than the time needed for internal balancing.« (Kauffman 1995, 91f)

Auf ähnliche Weise argumentiert Spencer-Brown in seinem späteren, unveröffentlichten Text von 1992. Er wiederholt die Grundidee, wie an den Schaltelementen mittels Transistoren Haken in Ocks umgewandelt werden, und warum ein Schaltkreis ein »Eigenleben« gewinnen kann:

»In hardware the mark behaves like an idealized transistor 'nor' gate: If any of its inputs is connected to an EMF (say 1 or mark), then its output is grounded (say 0 or ock).
    Some engineering designs with these units will 'work' even it their mathematics is incorrect, because of delays in signal travel-time etc. These are bad designs: they might suddenly fail if the material are improved.
    The beauty of the present mathematics is this: if it is correct, anything designed from it in transistor units will certainly work.« (R, 5)

Es ist gut zu verstehen, warum der Erfolg dieser Schaltkreise ungläubig aufgenommen wurde. Spencer-Brown berichtet von der Reaktion der Kollegen, als er 1961 erstmals einen Schaltkreis dieser Art realisiert hat: »My colleagues were so shocked that they wouldn't look, even though we constructed it in transistor hardware and watched it counting on the cathode-ray tube. 'There must be something wrong with it.'« (R, 7) Letztlich bezieht er sich bei einem vergleichbaren Schaltkreis auf die technischen Eigenschaften des Schaltkreises.

Es bleibt dem Geschick des Ingenieurs überlassen, das Verhalten der Technik zu testen und einzusetzen. Es kann nicht »ausprogrammiert« werden und zeigt sich in den Schaltkreisen als Konflikte, die sich in der Realität von allein ausbalancieren. Die Kunst, einen Schaltkreis zu konstruieren (»the art of making a reductor« und ihre »ingenuity«, R, 10, 13) liegt darin, im Ganzen einen Schaltkreis zu entwerfen, mit dem beide Fälle umgesetzt werden können und die Technik mitspielt. Er vergleicht ihre Arbeit mit der von Chemikern. Auch sie testen unterschiedliche chemische Prozesse aus und können letztlich nicht genau sagen, warum der von ihnen gefundene Prozess gelingt. Es ist nicht möglich, die Vielzahl von Abläufen und möglicherweise wie Katalysatoren wirkender Stoffe vollständig zu beschreiben und zu verstehen. (Als ich in der chemischen Industrie mit Forschern sprach, wurde mir das bestätigt. Die Realität der chemischen Forschung und ihrer Erfolge unterscheidet sich deutlich von dem, was ein Außenstehender erwarten würde.)

"As in a chemical formula, it gives the number of elements (markers and leads) without saying how they are actually connected, so if they can be connected a different way in the same formula we call it an isomer" (R, 21)
    "The same is true for reductors, as mathematical entities. Like numbers, they don't actually exist in any space we call Euclidean. Yet unless we draw them in some way, even though no way we can draw them is relevant to what they actually are, we cannot use them, nor can we even imagine them. Even the specification of the reductor is not, mathematically, what it really is: it is just a more succinct way of drawing it, getting rid of all the irrelevant ways it can be diagrammed as a circuit." (R, 21)
    "Mathematics, like musics, is meaningless unless it is performed." (R, 23)

Der Hinweis zur Musik erscheint mir schlagend: So wie ein Komponist und ein Musikspieler niemals vollständig durchrechnen kann, welchen Klang ein Instrument erzeugen wird, sondern es ausprobieren und mit den speziellen, oft unerwarteten Klangwirkungen des Instruments spielen, die sich dank seines Materials und seiner Bauart ergeben, so gehen auch die Forscher vor. Es ist für mich eine großartige Leistung, den kreativen Prozess nicht einfach der logischen Wiederholung und Routine gegenüberzustellen, in deren Verlauf sich nach und nach klären wird, warum welche Zustände auftreten (so wird heute zweifellos nicht mehr so ins Unbestimmte hinein ein Schaltkreis entworfen, nachdem er sich viele Male bewährt hat), sondern bis in die Logik einen Weg aufzuzeigen, wie das Zusammenwirken des Entwicklers und seiner Instrumente und Stoffe zu denken und paradigmatisch an Beispielen wie den von Spender-Brown genannten Schaltkreisen darzustellen ist.

Zusammenfassend besteht für mich das Neue an dieser Logik in drei Punkten:

– Einführung der imaginären Achse

Diesen Punkt hebt Spencer-Brown besonders hervor. Mit imaginärer Achse ist gemeint, dass im Schaltkreis das lineare Folgern verlassen wird. Es wird zwischen unterschiedlichen Wegen differenziert, die teils parallel verlaufen und teils miteinander verbunden und rückgekoppelt sind. Das erfordert gegenüber dem linearen Schließen eine neue Achse, die für Spencer-Brown mit der Einführung imaginärer Zahlen verglichen wird, obwohl er nirgends mit imaginären Zahlen rechnet.

– Trägheit und Selbstorganisation des Schaltkreises

Das ist für mich die noch wichtigere Konsequenz. Wenn sich im Schaltkreis nach einem stroke ein Zustand ausbalanciert hat, scheint zum einen die Neigung zu bestehen, diesen Zustand beim nächsten stroke zu erhalten. Es können jedoch keine Konflikte vermieden werden. Das führt zu einer Art Selbstorganisation: Der Schaltkreis zerfällt in Teilbereiche, die jeweils in sich konfliktfrei sind, und nur bestimmte Übergänge sind zulässig. Sie ergeben von sich aus eine Harmonie, die Spencer-Brown als Musikalität bezeichnet hat.

– Wechselwirkung des Entwicklers und der von ihm geschaffenen Kunstwerke

Anmerkung (Musikalität und Technik): Was Spencer-Brown in der Logik und an Schaltkreisen aufgezeichnet hat, wurde überraschenderweise zur gleichen Zeit als eine avantgardistische Technik in die Musik eingeführt: Loops. Deren Vorbild waren mechanische Instrumente wie Spieluhren. Diese Technik macht den Reiz des Minimalismus aus und ist für mich besonders in den Stücken von Steve Reich (* 1936) unmittelbar hörbar und geradezu ein musikalisches Gegenstück zu den Laws of Form. Siehe z.B. bei YouTube mit einer sehr klaren Visualisierung das 1973 entstandene Stück Music for Pieces of Wood; YouTube. Wem es schwer fällt, die Ideen von Spencer-Brown zu verstehen, der sollte mit dieser Filmsequenz anfangen. Dort ist unmittelbar zu sehen und zu hören, wie auf einem kanonischen Grundrhythmus weitere Rhythmen aufgebaut werden, bis schrittweise ein eigener für sich stehender Klangeindruck aufgebaut wird. Während anfangs die einzelnen rhythmischen Linien vom Ohr klar zu unterscheiden sind, springt dies an einem bestimmten Punkt um in einen Gesamteindruck eines harmonischen akustischen Gesamt-Bildes, in dem auch der statisch festgehaltene Grundrhythmus zu schwingen scheint.

Wer dieses Thema mit den Arbeiten von Kauffman vertiefen möchte, sollte beachten: Während es für die graphische Darstellung sehr anschaulich ist, Haken und Ock als Vollkreis und Leerkreis darzustellen, ist es für eine stärker mathematische Schreibweise in Listenform einfacher, den Haken als 1 und das Ock als 0 zu setzen. Dann kann der jeweilige Zustand des Schaltkreises beschrieben werden durch die Werte 0 und 1, die an den jeweiligen markers angenommen werden. Hierfür wird ein Zahlentupel des Input und der 8 Schaltelemente gebildet:

{a, b, c, d, e, g, h, i, j}

Nach jedem stroke werden die konkreten Werte eingesetzt. Wird für den Vollkreis (Haken, marked) 1 gesetzt und für den Leerkreis (Ock, unmarked) ergibt das:

  a, b, c, d, e, g, h,  i,  j
Stroke 1    1, 0, 1, 0, 1, 0, 0, 0, 1
Stroke 2    0, 0, 0, 0, 1, 1, 0, 1, 0
Stroke 3    1, 0, 0, 1, 0, 0, 1, 1, 0
Stroke 4    0, 1, 0, 1, 0, 0, 0, 0, 1

Die Werte bei a und e sind halbfett hervorgehoben, um Input und Output deutlich zu machen, und es ist gut zu sehen, wie sich die Frequenz der einlaufenden Welle bei a und am marker e vor dem Ausgang in f halbiert. In dieser Weise wird der Schaltkreis in Kauffman 2006 dargestellt. Auch Spencer-Brown hat den Schaltkreis ursprünglich auf ähnliche Weise aufgeschrieben (siehe R, 7, Figure 1.1).

Bereits 1995 betont Kauffman: Wiederum haben die für die marker eingeführten Symbole Doppelbedeutung als Elemente eines Prozesses und dessen Ergebnisse. Jeder marker ist ein Element im Schaltplan, und jeder marker wandelt das bei ihm eingehende Signal in ein neues Signal um.

»In using the interlock algebra, one regards the link diagram as a circuit whose parts (the arcs in the diagram) are both carriers of circuit values and operators that process these values. This duality is the core of the interrelationship with topology. In actual applications of digital circuitry, there is usually a sharp distinction between circuit elements as operators and circuit elements as carriers of signals.« (Kauffman 1995, 88)

– Re-entry bei Luhmann

Dieses Kapitel befindet sich in Überarbeitung.

Beobachter

»An observer, since he distinguishes the space he occupies, is also a mark.« (LoF, 76)

Spencer-Brown will die kopernikanische Wende konsequent bis in die Logik nachvollziehen und eine Logik entwerfen, innerhalb derer der Standort des Beobachters und dessen Relativität dargestellt werden kann. Um das besser veranschaulichen zu können, wählt er neue Zeichen: Statt eines Hakens steht ein Kreis für die Grenze von Etwas. Wiederholung wird durch zwei nebeneinander liegende Kreise dargestellt, Verschachtelung durch ineinander liegende Kreise. In einer Präsentation von Kauffman Laws of Form and the Logic of Non-Duality, 31 nehmen die beiden Axiome die Form an:

spencer brown kreise

Das ergibt zunächst keine neue Erkenntnis, doch lässt sich in der Darstellung mit Kreisen besser zeigen, dass unterschiedliche Beobachter die gleichen Verschachtelungen und Wiederholungen verschieden sehen. Was für den einen wie eine Verschachtelung aussieht, kann für einen anderen von einer anderen Position aus wie eine Wiederholung aussehen usf. Wird z.B. als ein Kreis der Äquator auf der Erde gewählt und als zweiter Kreis ein beliebiger Kreis, der sich vollständig auf der Südhalbkugel befindet, dann liegt dieser zweite Kreis für einen Beobachter von der Nordhalbkugel aus gesehen innerhalb des Äquators. Für einen Beobachter auf der Südhalbkugel, der sich zwischen dem Äquator und dem zweiten Kreis befindet, liegen beide Kreise dagegen nebeneinander (siehe hierzu LoF, 102f). In den folgenden Bildern ist mit einem blauen Quadrat der jeweilige Standort des Beobachters eingetragen und mit einem kleinen Quadrat, wo er den anderen Beobachter sieht:

spencer brown beobachter

2 Kreise aus unterschiedlichen Perspektiven
links: Ein Beobachter auf der Nordhalbkugel sieht die beiden Kreise ineinander und den zweiten Beobachter im Zwischenraum zwischen den Kreisen.
rechts: Ein Beobachter auf der Südhalbkugel sieht die beiden Kreise nebeneinander und den ersten Beobachter im größeren Kreis.

Jede Darstellung logischer Elemente und ihrer Verhältnisse und Operationen ist abhängig von der Perspektive des jeweiligen Beobachters, der sich zugleich ein Bild macht, welches sein eigener Standort innerhalb der Logik ist. Diese Art von beobachter-abhängigen Darstellungen bezeichnet Spencer-Brown als »experiments« (LoF, 70-75).

Die Einbeziehung eines Beobachters führt in eine neue Endlosschleife. Im ersten Schritt zeichnet ein Beobachter ein Bild, wie er von seinem Standort aus das System sieht. In einem zweiten Schritt trägt er in diesem Bild den eigenen Standort ein, d.h. den Ort, wo er sich innerhalb der Karte befindet. Jeder kennt das von in der Natur angebrachten Wanderkarten, die mit einem hervorgehobenen Punkt den Standort zeigen, an dem sich die Karte innerhalb der Landschaft befindet. Im dritten Schritt kann gefragt werden, von welchem Standort aus eine Karte gezeichnet werden konnte, die den Standort enthält. Er muss sich jenseits des Beobachters und seiner Umgebung befinden. Auch für diesen Standort kann wiederum eine Karte gezeichnet werden von einem noch weiter außerhalb liegenden Standort aus, usf.

In Strukturaufstellungen wird das ebenso deutlich. Der Patient stellt einen Repräsentanten seiner selbst in den Raum und umgibt ihn mit weiteren Figuren aus seinem sozialen System. Der Patient sieht sich jetzt gleichsam selbst in dem ihn umgebenden System. Der Therapeut sieht wiederum von außen, wie der Patient auf sein Selbstbild reagiert und mit ihm interagiert, wenn die aufgestellten Personen sich zu äußern beginnen und der Patient ihre Stellung verschiebt oder verändert. Ein Supervisor kann die Arbeit des Therapeuten beobachten usw. – In Streitgesprächen ist es ein beliebtes Spiel, wenn die streitenden Parteien wechselweise aus dem Clinch heraustreten wollen und den anderen von einer Meta-Ebene aus beurteilen. Das provoziert eine entsprechende Reaktion, bis ein Kreislauf ohne Ende eintritt. – In Versammlungen wird bisweilen der Ablauf gestört, wenn jemand beide Arme hebt und Verfahrensfragen stellt. Dann kann sich jemand anders melden und die Zulässigkeit von Verfahrensfragen in Frage stellen usf.

beobachterstandort     verfahrensdiskussion

Daher wird ein abschließender Schritt notwendig, mit dem gezeigt wird, dass die Ergebnisse unabhängig vom Standort der Beobachter gelten. Es muss Transformationsregeln geben, die einen Standort in einen anderen übersetzen. Welche Transformationen zwischen den verschiedenen Darstellungen gibt es und welche Eigenschaften haben sie? Das war für Einstein die Frage nach den Lorentz-Transformationen, in der Ökonomie ist es die Frage nach den Währungs-Transformationen und für mich gibt es eine verwandte Frage nach den Wahrheits-Transformationen bei Wittgenstein.

Für mich ist daher die Frage nach dem Beobachter anders anzugehen als bei Luhmann und seinen Nachfolgern, und ich kann mir vorstellen, dass ausgehend von Spencer-Brown neues Licht auf diese Frage geworfen werden kann.

Ebenso wichtig ist die Frage nach dem untersten System, das Spencer-Brown mit (s−1) bezeichnet hat. Auch hier soll im Moment ein Hinweis auf die psychotherapeutischen Anwendungen genügen. Wie ist es zu erklären, wenn die in einer Strukturaufstellung aufgestellten Personen zu reden beginnen und Aussagen über das von ihnen aufgestellte System zu treffen vermögen, obwohl sie außer der Aufforderung, sich aufstellen zu lassen, keine Information über das System erhalten haben? Offenbar gibt es auf der untersten Ebene, – das ist in diesem Beispiel die Körperlichkeit (Leib) der Personen –, eine Wahrnehmungsebene, die in ihrer Offenheit und Unendlichkeit über alle bewussten Informationen hinausgeht. Das ist für mich ein Beispiel für die von Leibniz gemeinten kleinen Perzeptionen.

Luhmann scheint es dagegen vor allem darum zu gehen, dass erst aus der Kommunikation von Beobachtern untereinander Logik und Wahrheit entstehen. Wahr ist nicht mehr im klassischen Sinn dasjenige, was mit der Sache übereinstimmt, sondern was sich in der Kommunikation der Beobachter etabliert.

»Mit dem re-entry bezeichnen wir ganz allgemein die Wiedereinführung einer Unterscheidung in den Bereich, den sie zu unterscheiden erlaubt. Ein Beispiel: Das Wissenschaftssystem ist nach der Systemtheorie von Niklas Luhmann auf der Grundlage der Unterscheidung wahr/nicht-wahr ausdifferenziert. Wenn man eine Wissenschaftstheorie erarbeitet, die die Verwendung dieser Unterscheidung wiederum mit der Unterscheidung wahr/nicht-wahr beobachtet, wird mit der Wissenschaftstheorie ein re-entry vollzogen. Bezüglich des Wissenschaftssystems befindet man sich in einer solchen Wissenschaftstheorie auf einer Meta-Ebene, da man nun die Frage nach der Wahrheit der Operation der Wissenschaft – also der Wahrheit der Unterscheidung wahr/nicht-wahr – stellen kann. Dadurch, dass es die gleiche Unterscheidung ist, die auf sich selbst angewendet wird, entsteht eine Situation, 'in der die Unterscheidung gleichzeitig dieselbe (als die besondere Unterscheidung der Operationen dieses Systems) und eine andere (als beobachtete Unterscheidung) ist'. (Claudio Baraldi, Giancarlo Corsi, Elena Esposito GLU: Glossar zu Niklas Luhmanns Theorie sozialer Systeme, Frankfurt am Main 1997: 152)« (Lau, 55f)

– Ergänzungen zur Strukturaufstellung

Varga von Kibéd hat die Methode systemischer Strukturaufstellungen weiter ausgebaut bis zu einer anonymisierten Form: Der Patient lässt sich auf der Bühne aufstellen und um ‘sich’ herum weitere Personen, die für ‘das Problem’, ‘den größten Widerstand’, ‘mögliche Hilfe’, ‘einen unbekannten Einflussfaktor’ usf. stehen. Nur der Patient weiß, was damit gemeint ist, und dennoch können die aufgestellten Personen überraschende Erkenntnisse liefern: Sie können sagen, ob noch etwas fehlt, welche Figur falsch steht u.ä. So können Probleme aufgestellt werden, die den sich aufstellenden Personen unbekannt (verdeckt) sind. Das schließt mögliche Beeinflussungen durch die Erzählungen des Patienten und Kommentare des Therapeuten noch weiter aus.

Den Familienaufstellungen wurde oft der Vorwurf gemacht, dass ihr Erfolg von einem Moderator mit charismatischen Fähigkeiten abhängt, der mithilfe von Suggestion das Verhalten der Gruppe steuert. Möglicherweise sind es auch verdeckte Gruppenprozesse, die die Ergebnisse in eine bestimmte Richtung drängen, Angst vor Selbstentblößung, Freude am Narzissmus, Lust am Fabulieren. Varga von Kibéd beruft sich ausdrücklich auf Hypnose-Techniken. Mir ist unbekannt, ob und in welcher Weise die Hypnose-Arbeit von Spencer-Brown in seine Arbeiten zur Logik eingeflossen sind.

Varga von Kibéd nannte bei einem Weiterbildungsseminar 2010 (veröffentlicht in YouTube) den Madhyamaka-Buddhismus und dort insbesondere das Gesetz des Bedingten Entstehens (pratitya-samutpada, das in wechselseitiger Abhängigkeit voneinander Entstehende) als eine Grundlage seiner Arbeit, die er mit den Ideen von Spencer-Brown zusammenbringen will. Er beruft sich auf Nagarjuna (2. Jh. n.Chr.) und Vasubandhu (4. Jh. n.Chr.) und dessen drei Prinzipien, die aus seiner Sicht den heutigen radikalen Konstruktivismus etwa von Heinz von Förster noch unterlaufen. Alles geht nicht nur auf eine ousia (einer allem anderen unterliegenden Substanz) zurück, wie Aristoteles gelehrt hatte, sondern auf drei Prinzipien: (a) das, was erscheint (b) das, wie es erscheint im jeweiligen Modell, (c) dasjenige an (a), das in (b) nicht erscheint und daher eine ewige Bewegung neuer Modelle auslöst.

Lässt sich die Methode der Systemischen Strukturaufstellung auf andere naturwissenschaftliche Gebiete übertragen? Evolutionstheorie: Stehen die einzelnen, zufällig entstandenen Mutationen wie die in einer Strukturaufstellung aufgestellten Personen auf einer Art Bühne und beginnen dank ihrer Körperlichkeit ihre Beziehungen untereinander zu erkennen, woraus sich etwas Neues ergibt? Das wäre ein neuartiger Versuch, den Verlauf von Emergenz und Evolution zu beschreiben und zugleich ein Ansatz, der Monadologie von Leibniz eine zeitliche Verlaufsform zu geben, wenn die Monaden als Einheiten auf einer Bühne verstanden werden und dort ihre Positionen verändern können.

Ein anderes Beispiel könnte die Quantenverschränkung sein: Stehen die verschränkten Quanten auf einer gemeinsamen Bühne und gelangen dank ihrer Körperlichkeit zu einer gemeinsamen, übergreifenden Bewegung, einem Tanz der Quanten?

Anhang

– Die Grenze bei Hegel und Spencer-Brown (Stichworte und Fragen)

Das Etwas ist durch eine Grenze vom Anderen getrennt. Die Grenze unterteilt bei Spencer-Brown den Raum in den durch Etwas markierten Bereich und den Bereich alles anderen.

Indikation Etwas Anderes

Das Etwas ist aber zugleich das Andere-an-im-selbst. Das Hinausgehen zum Anderen kehrt zurück. Dies ist bei Spencer-Brown der Re-entry.

Re-entry Etwas Anderes

Hegel betrachtet den Fall, wenn nicht nur von einem einzelnen Etwas, sondern von vielen Etwasen zum jeweils Anderen hinausgegangen wird. Für ihn geht die Wiederholung des Hinausgehens von verschiedenen Etwasen zu ihrem jeweils Anderen über in das Hinausgehen des Einen zu den Vielen entlang einer Reihe, auf der die Etwase angeordnet sind. Dadurch erfolgt zugleich ein Hinausgehen zweiter Stufe: Es wird über die einzelnen Schritte des Hinausgehens hinausgegangen auf die Reihe und deren Eigenschaften, entlang derer das Hinausgehen erfolgt. Die einzelnen Schritte des Hinausgehens wenden sich in sich selbst und führen zum Grund, in dem das Hinausgehen erfolgt. Vorbild ist die Zahlenreihe der natürlichen Zahlen. Die Einen sind entlang der Reihe untereinander ähnlich. Zunächst werden die einzelnen Schritte betrachtet (Nachfolger-Relation, wobei der Abstand von einem Etwas zu seinem Vorgänger und zu seinem Nachfolger jeweils Eins beträgt), anschließend die Reihe der Schritte für sich. Sie ist transitiv und euklidisch geordnet.

Spencer-Brown betrachtet dagegen den Fall, wenn von einem markierten Bereich aus das Hinausgehen über die Grenze wiederholt wird. Wird nur das einzelne Hinausgehen wiederholt, verändert sich nichts, denn jedes neue Hinausgehen führt wieder zum gleichen Anderen. Kommt es jedoch zu einer unendlich häufigen Wiederholung, dann führt das zum Re-entry. Damit das möglich ist, muss die Wiederholung formal geregelt und selbstähnlich sein. Das führt im Ergebnis von der eindimensionalen Reihe zur Welle bzw. zum Gedächtnis: Beim Gedächtnis wird immer der gleiche Wert erreicht, bei der Welle (Oszillation) werden abwechselnd mindestens zwei unterschiedliche Werte erreicht. Dieser Gedanke ist nochmals aufzunehmen, wenn auch Hegel von Oszillationen (Pulsation) spricht.

Knotenlinie und Wahlverwandtschaft: Ist die Knotenlinie eine Folge von Grund-Bereichen, in die im Sinne von Spencer-Brown eine Form, d.h. eine Unterscheidung eines markierten Bereichs von seinem Anderen eingetragen wird? Jeder Grundbereich stabilisiert sich durch einen Re-entry, das ist eine innere zirkuläre Bewegung. (Das müsste näher ausgeführt werden. Wie stabilisieren sich chemische Prozesse oder Wärmeaustausch, und wann kippt das System um?) Jeder Zustand ist durch eine Grenze von einem anderen Zustand getrennt. Kommt es zur Grenzüberschreitung, so wird diese zurückgekoppelt und verstärkt als Rückkopplung nochmals den Zustand.

Der Re-entry im Sinne von Spencer-Brown kann in der Ausdrucksweise von Hegel als Wechselspiel von Kontinuation und Umkehr verstanden werden. In der Systemtheorie wird dies beschrieben als Entkopplung und Kopplung.

Re-entry Etwas Anderes

Identität und Verschiedenes: Jedes A ist von der Gesamtheit aller Nicht-A getrennt. Es gibt jedoch ein Hinausgehen zu den von A Verschiedenen, der Gesamtheit der Nicht-A-s und ein Zurückkehren. Erst durch die Bewegung von beiden wird die Identität hergestellt.

Re-entry Identitaet

Gegensatz und Widerspruch: A und ¬A bilden einen Gegensatz. Sie sind durch viele Beziehungen miteinander verbunden. Jede Beziehung geht zum anderen hinaus und kehrt zurück, wodurch der Gegensatz gefunden wird.

Lässt sich der Übergang vom Gegensatz und dem Widerspruch zum Grund verstehen im Sinn von Spencer-Browns Einführung der imaginären Werte? Ist der Grund das Imaginäre? Sind der Grund und die Ebene, auf der der Gegensatz liegt, voneinander auf imaginäre Weise getrennt, die nach Spencer-Brown das Gedächtnis und die Oszillation hervorbringt und mit ihnen die Zeit?

Der Grund ist zunächst der Grund, in den diese Figur eingeschrieben (in-formiert) ist. Ist von hier ausgehend der Begriff der Information zu entwickeln, und warum kennt Hegel diesen Begriff nicht? Ist der Grund mit Hegel der Rückverweis auf die Seinslogik und dort die Bewegung von Kontinuation und Umkehr?

Wie verändert sich der Grund, wenn er erst einen Re-entry ermöglicht und dann einen Re-entry aufnimmt? Wird der Re-entry »vernäht«, und ist die Vernähung zu spüren?

– Syntax und Semantik

Das Verhältnis von Proto-Arithmetik und Proto-Algebra ähnelt dem Verhältnis von Semantik und Syntax. Es gibt eine unendliche Fülle semantischer Aussagen, die nie abreißen wird. Aber so viele semantische Aussagen es auch geben mag, sie sollten einer endlichen Anzahl syntaktischer Regeln genügen. Syntaktische Regeln sehen formal wie übliche Sätze aus, haben jedoch eine prinzipiell andere Bedeutung. Wenn Hilbert gehofft hatte, die Mathematik in einer formalen Metamathematik begründen zu können, hatte er im Grunde nach einer Syntax der Mathematik gesucht. Das haben Carnap und Gödel gesehen und daher die Frage nach der Metamathematik umgewandelt in die Frage nach der Syntax der Sprache.

Hegel diskutiert das Verhältnis von Semantik und Syntax im Übergang von der Seins- zur Wesenslogik. Die Seinslogik untersucht die Kategorien, mit denen semantisch etwas über ein Seiendes ausgesagt werden kann (Qualität, Quantität, Relation bzw. bei Hegel Maß). Demgegenüber ist die Logik der Reflexionsbestimmungen (der erste Abschnitt der Wesenslogik) ein Übergang von der Semantik zur Syntax der Sprache (siehe seine Anmerkung in der Wissenschaft der Logik zum Satz der Identität, HW 6.41-45).

Mit dem Identitätssatz ›A = A‹ wird das Sprachspiel fundamental verändert: Aus semantischen Sätzen über etwas wird ein Beispiel-Satz, an dem die Struktur (Syntax) der Sprache aufgezeigt wird, also ein selbstbezüglicher Satz der Sprache über sich. Der Satz sagt jedoch nicht etwas Inhaltliches über andere Sätze, sondern an seiner Form wird etwas demonstriert. Der tautologische Satz ›A = A‹ liefert offensichtlich kein neues Wissen, sondern erscheint geradezu sinnlos und völlig überflüssig. Aber  an diesem Satz  wird etwas deutlich über die Syntax (und damit das Wesen) aller Sätze. (Collmer beschreibt das in angedeuteter Mathematik kategorientheoretisch, wenn er vom Einsatz des »Funktor 'selbst'« spricht und mit dem Funktor die Meta-Ebene erreicht; Collmer, 125.)

Wird das leere ›A ist A‹ beliebig erweitert in ›A ist A ist A ist A ist …‹, ergeben sich aus dieser ins Leere laufenden Bewegung verborgene weitere Bedeutungen: Es kann nach dem Vorbild von die Rose ist eine Rose ist eine Rose (Gertrude Stein Sacred Emily, 1913) »ein artifizielles Muster« im Sinne des Dadaismus sein, bei endloser Wiederholung eine Verschwendung von Ressourcen an Papier oder Speicherkapazität, die irgendwann an die »Macht des Faktischen« stößt und abgebrochen werden muss oder eine Bewegung des Verinnerlichen und der Versunkenheit in einem Gebet (Collmer, 126).

Die Reflexionsbestimmungen sind für Hegel Sätze, jedoch nicht im Sinne von Antworten auf Was-Fragen (›Was ist die Identität‹), sondern sie zeigen an sich selbst (selbstbezüglich) eine bestimmte Struktur, die allen Sätzen zugrunde liegt. Es sind keine prädikativen Aussagesätze, sondern Sätze auf einer abstrakteren Ebene (Collmer, 129).

Hegel hat die transzendentale Logik von Kant radikalisiert, und sein Wechsel von Semantik und Syntax vollzieht eine Wende, die später im 20. Jahrhundert sowohl von Wittgenstein wie von Heidegger in einem jeweils anderen Kontext neu formuliert, aber erst von Carnap und Gödel mit der Syntax der Sprache in aller Klarheit gefasst wurde.

Scheier sieht diesen Wechsel in Ästhetik der Simulation in einem größeren Horizont, von dem aus die kulturellen und philosophischen Veränderungen der industriellen Moderne im 19. Jahrhunderts überschaubar werden. Franz Schubert hat in seinen späten Werken nicht mehr einfach neue zeitliche, musikalische Abläufe komponiert, sondern versucht, mit seinen Werken den Verlauf der Zeit an sich darzustellen (siehe hierzu im Beitrag Von Schubert zu Klimt – die Verräumlichung der Musik den Abschnitt über die Klaviersonate in c-Moll D958, ein Finale an den Grenzen der Zeit, mit Bezug auf Peter Gülke Franz Schubert und seine Zeit, Laaber 1991, wobei der Titel bewusst doppeldeutig gewählt ist). Ein anderes Beispiel ist die Poetik von Stéphane Mallarmé. Er suchte nach dem »Gesang unter dem Text«, der »'Musik' in den Buchstaben«, den »Kraftlinien der fließenden, heterogenen, doch semiotisierbaren chora«, dem »Ort der Sprache«, in den hinein die Arbeit am Text erfolgen kann (Kristeva Die Revolution der poetischen Sprache, Frankfurt am Main, 1978, S. 41, 72, 184, 205).

Siglenverzeichnis

AUM = The G. Spencer-Brown – AUM-Conference 1973, Esalen 1973; Link

HW = Georg Wilhelm Friedrich Hegel: Werke in 20 Bänden. Auf der Grundlage der Werke von 1832-1845 neu ediert. Red. E. Moldenhauer und K. M. Michel. Frankfurt/M. 1969-1971; Link

KrV = Immanuel Kant: Kritik der reinen Vernunft (1781, 1787)

LoF = George Spencer-Brown: Laws of Form, New York 1972 (Julian Press) [1969]; Link

R = George Spencer-Brown: An Introduction to Reductors, unveröffentlichtes Typoscript 1992

SWH = Tatjana Schönwälder-Kuntze, Katrin Wille, Thomas Hölscher: George Spencer Brown, Wiesbaden 2009 [2004]

Literatur

Gregory Bateson: Ökologie des Geistes, Frankfurt am Main 1981 [1972]

Dirk Baecker (Hg.): Kalkül der Form, Frankfurt am Main 2016 [1993]

Dirk Baecker: George Spencer-Brown wird 90; catjects

Ulrich Blau: Die Logik der Unbestimmtheiten und Paradoxien, Heidelberg 2008

Thomas Collmer: Hegels Dialektik der Negativität, Gießen 2002

Louis H. Kauffman und Francisco J. Varela: Form Dynamics
in: Journal of Social and Biological Structures 1980 3, S. 171-206

Louis H. Kauffman 1995: Knot Logic
in: ders. (Hg.): Knots and Applications, Singapore 1995, 1-110

Louis H. Kauffman 2006: Laws of Form – An Exploration in Mathematics and Foundations, Rough Draft

Louis H. Kauffman 2009: Laws of Form and the Logic of Non-Duality, San Rafael 2009; Link

Felix Lau: Die Form der Paradoxie, Heidelberg 2012 [2005]

Niklas Luhmann: Beobachten
in: Luhmann: Die Wissenschaft der Gesellschaft, Frankfurt 1992 [1990], S. 68-122

Niklas Luhmann: Die neuzeitlichen Wissenschaften und die Phänomenologie, Wien 1996

Warren St. McCulloch: Heterarchy and Hierarchy; Link

Martin Rathgeb: George Spencer Browns Laws of Form zwischen Mathematik und Philosophie, Siegen 2016; Link

Claus-Artur Scheier: Ästhetik der Simulation, Hamburg 2000

Claus-Artur Scheier: Luhmanns Schatten, Hamburg 2016

The Telegraph: George Spencer-Brown, polymath who wrote the landmark maths book Laws of Form – obituary; Telegraph vom 13.9.2016

Franco Volpi: Der Status der existenzialen Analytik (§§ 9-13)
in: Thomas Rentsch (Hg.): Martin Heidegger - Sein und Zeit, Berlin 2001, S. 29-50

Bildnachweis des Titelbildes: Spencer-Brown Laws of Form S. 68

 


© tydecks.info 2017