Walter Tydecks

 

Perspektiven der künstlichen Intelligenz

Vorwort (1992)

Die folgende Arbeit entstand 1987. Die EDV-Branche befand sich damals auf dem Höhepunkt der Euphorie. Inzwischen hat sich das Bild radikal gewandelt. Fast alle Computerfirmen einschließlich des Marktführers IBM befinden sich in der Krise und Neuorientierung. Das 1980 auf 10 Jahre angelegte japanische Projekt zur Entwicklung einer neuen Computergeneration auf Basis der künstlichen Intelligenz ist gescheitert, die japanische Wirtschaft insgesamt in einer tiefen Rezession und Umgestaltung. Der Trend zur Entwicklung künstlicher Intelligenz ist damit aber noch nicht gebrochen. Nur zeigt sich, dass eine Branche allein nicht in der Lage ist, ein Projekt vergleichbar dem Eisenbahnbau oder der fordistischen Produktions- und Lebensweise zu realisieren. Im kommenden Jahrzehnt ist die Durchdringung aller Maschinen und Produktionsprozesse durch Mikroelektronik zu erwarten, wenn die entsprechenden Bauteile ausreichend billig und leistungsfähig geworden sind. Dann ist mit einem neuen Anlauf auf weit breiterer Basis in Richtung künstlicher Intelligenz zu rechnen. Schon seit Anfang der 1980er Jahre zeigen langfristige Analysen der Patentstatistik und innovativen Produkteinführungen, dass heute die Entwicklung neuartiger wissenschaftlicher Instrumente am auffallendsten ist (z.B. das Rastertunnelmikroskop). Das wird zu völlig neuen technischen Möglichkeiten der Wahrnehmungsfähigkeit, Musterverarbeitung und automatischen Darstellung von Modellen führen. Dennoch bleibt eine kritische Beurteilung der Perspektiven dieser Entwicklung gültig.

Vorwort (1987)

Die Künstliche Intelligenz (KI) ist als krönender Abschluss der Industrialisierung gedacht. Nachdem es in den 1930er Jahren in Westeuropa dem Logischen Positivismus nicht gelungen war, alle Wissenschaft auf die Mathematik und die Mathematik auf die Formale Logik zurückzuführen, wird seit den 1950er Jahren in den USA daran gearbeitet, dies Programm eine Ebene tiefer mittels EDV-Technik zu verwirklichen. Die westeuropäischen Versuche waren von philosophischem Anspruch getragen und verwickelten sich sowohl in der logischen Grundlagenforschung in Widersprüche (Gödel), als sie auch heftige philosophische Kritik hervorriefen (von so verschiedenen Seiten wie Heidegger, Merleau-Ponty, Wittgenstein). Im Ansatz der Kl wird dagegengehalten, den akademischen Streit zurückzulassen und durch die Realisierung moderner Maschinen zu überzeugen. Das ist bis heute der große Trumpf gegen alle Einwände. Und wer auf Folgewirkungen hinweist, dem wird geantwortet, dass halt bessere Maschinen zu bauen sind. Aber auch die KI-Forschung kann nicht über ihren Schatten springen. Trotz vieler spektakulärer Erfolge in Einzelfragen ist der erhoffte Durchbruch ausgeblieben. Ausgehend von den Grundsatzfragen sind im folgenden schrittweise die möglichen Entwicklungschancen zu analysieren.

1. Paradoxie der KI

Das grundlegende Paradox der Kl liegt im Entwurf der modernen Naturwissenschaft und Technik. Programme und Rechner der Kl entstehen mit dem Anspruch streng naturwissenschaftlicher (einschließlich mathematischer) Methoden. Und die gehen von einer klaren Unterscheidung zwischen Erkenntnissubjekt und Erkenntnisobjekt, von Natur und Intelligenz aus, die so in der Kl nicht durchgehalten werden kann.

Über die Natur wird vorausgesetzt: Alles läuft von selbst. Es gibt keinen inneren eigenen oder göttlichen Plan, der ihre Bewegung regelt. Die Natur kennt keine Zukunft. Daher kommt nichts anders als erwartet, weil die Natur selbst nichts erwartet und der Erwartung gemäß ordnet. Die Natur ist nicht nur kein Erkenntnissubjekt, sie ist kein Subjekt. Die moderne Naturwissenschaft geht davon aus, dass ihre Erkenntnisse nicht durch Eigenarten der Natur gestört werden können. Zufall und Störung deuten prinzipiell nur auf Erkenntnislücken, aber nicht auf Eigenbewegung der Natur. Wenn es zu Katastrophen kommt, ist es der Natur egal. Der Begriff Katastrophe ergibt nur für ein Subjekt einen Sinn, also für den Menschen. Mit einem Wort: Die Natur hat weder Autonomie noch Selbständigkeit.

Diese Annahme ist weder selbstverständlich noch unumstritten. Ursprünglich galt die Natur als Gewalt, als eigene Kraft, als göttliche Kraft, in der und mit der der Mensch sich auseinandersetzen muss. Oder es wurde positiver angenommen, dass sie für eine grundlegende Harmonie sorgt, in der die Menschen leben können. Aufklärung hat das alles aufgelöst, indem sie zunächst den göttlichen Plan, die Gewalt, die Harmonie rational fassen wollte und dann zum Ergebnis kam, dass außer den naturwissenschaftlichen Gesetzen nichts Gesichertes über die Natur gesagt werden kann. Nur bleiben die verschiedenen Naturgesetze zunächst zusammenhanglos, ergeben kein geschlossenes Gesamtbild, wo die Annahmen von Logos, Gott, Harmonie innerhalb der Natur aufgegeben wurden. Also müssen vom erkennenden Subjekt Zusammenhänge von außen gesetzt werden, Weltbilder müssen für Einheit sorgen. Bei ihnen handelt es sich in der Regel einfach darum, dass eine bestimmte Naturwissenschaft sich zur Leitwissenschaft erheben will, sei es die Mechanik, die Evolutionsgeschichte, die Atomtheorie oder die Biologie. Die Kl kann als neuster Ansatz verstanden werden, indem jetzt Informationswissenschaft und angewandte Mathematik an die Spitze der Wissenschaften drängen.

Mit der Kl soll die spezifische Fähigkeit des Menschen, seine Autonomie und Selbständigkeit, in Technik gegossen werden. Sie wird als Fähigkeit der Informationsverarbeitung interpretiert. Schon Dreyfus hat darauf hingewiesen, dass hier der philosophische Kern der Kl-Forschung liegt, die jede Philosophie weit von sich weist. Genauer geht die Kl von zwei zusammengehörigen Voraussetzungen aus:

KI-Programme sollen entsprechend in der Lage sei, aus Informationsmengen Objekte zu erkennen und sie für die Formulierung und Durchführung von zielorientierten Handlungen zu nutzen. In beiden Fällen geht es um die Erkenntnis von Regelmäßigkeiten und in beiden Fällen sind hierfür Regeln anzuwenden. Am anschaulichsten wird das bei der Bildauswertung. Soll etwa ein Fernsehbild ausgewertet werden, so sind zusammenhängende Konturen, zusammenhängende Farben, Schattierungen, Verdeckungen usw. als Regelmäßigkeiten zu erkennen. Hierfür sind Verfahren notwendig, die systematisch den Bildschirm auswerten, etwa Zeile für Zeile, und bestimmte Maßstäbe dafür anlegen, wie Helligkeitsgrade, Dichtemaße, perspektivisches Wissen etc.

Die Kl-Forschung selbst stößt sofort auf das Problem der kombinatorischen Explosion. Das ist die Frage, von welchem Vorverständnis ausgegangen werden kann und wie ein Vorverständnis zu gewinnen ist. Wenn jemand in einen unbekannten Raum geht, erfolgt zuerst eine Orientierungsphase, z.B., handelt es sich um einen geschlossenen oder offenen Raum (d.h. gehe ich ins Freie oder in einen abgegrenzten Raum). Die Aufmerksamkeit konzentriert sich sofort (erfahrungsgemäß) auf bestimmte Dinge: Lichtquellen, Bewegungszentren etc. Entsprechend konzentriert sich die Suche nach Regelmäßigkeiten. Wenn solche Zuspitzung nicht gelingt (optische Täuschungen, verwirrende Situationen) und sozusagen alle Möglichkeiten bedacht werden müssen, führt das in die kombinatorische Explosion, wo auch die größten Rechner keine Chance haben. Am Beispiel des Schachspiels kann das quantifiziert werden: Prinzipiell gibt es 10 hoch 120 verschiedene Spielmöglichkeiten, von denen auch die besten Spieler allenfalls einige Hundert durchprüfen entsprechend der jeweiligen Konstellation. Wenn ohne Vorverständnis alle Möglichkeiten geprüft werden sollten, wird das nie zum Ergebnis führen.

In den meisten Fällen wird es genügen, sich auf bestimmte Standardregeln zu verlassen. Intelligenz ist aber gerade in kritischen, ungewohnten, unvorhersehbaren Situationen verlangt, wo es erforderlich ist, aus der Situation heraus ein angemessenes Verfahren zu entwickeln. Mit einem Wort: Wirklich intelligente Programme dürften sich nicht damit begnügen, dass sie einen vorgegebenen Satz von Regeln abarbeiten, sondern sie müssen in der Lage sein, neue Regeln zu entwerfen. Der Ansatz für die Kl-Programme ist daher grundsätzlich zu erweitern: Es geht nicht nur um die Erkenntnis von Mustern und Regelmäßigkeiten nach Regeln, sondern auch umgekehrt, aus vorgefundenen Mustern sind Regeln zu erkennen, mit denen die Untersuchung fortgeführt werden kann.

Kl-Programme müssen vom Menschen unabhängig sein, sie dürfen und können nicht nachfragen. Denn sie sollen gerade dort eingesetzt werden, wo Menschen nicht hinkommen können. So kann es sich um künstliche Vehikel handeln, die Expeditionen in Gebiete unternehmen, die dem Menschen nicht erschlossen sind, etwa im Weltraum, im Erdinneren oder sonstwo. Genauso kann es sich um Programme handeln, die Datenmengen im Zugriff haben, die dem Menschen allein aufgrund ihrer Fülle nicht zur Überprüfung und Kontrolle mitgeteilt werden können. In all diesen Fällen ist grundsätzlich davon auszugehen, dass KI-Programme mit Situationen konfrontiert sind, die dem Menschen prinzipiell unzugänglich sind. Genau dafür sollen sie geschaffen werden. Schon aus der Atomphysik ist bekannt, dass davon auszugehen ist, dass hier alle Regeln verletzt sein können, die dem Menschen bekannt sind. Worauf kann sich KI stützen, wenn hier neue Regeln gesucht werden?

Entweder können aus den Mustern der Natur ohne Nachfrage beim Menschen die Regeln abgelesen werden, aus denen sie entstanden sind. Also sollte z.B. aus der Konfiguration der Gestirne auf ihre Geschichte oder aus dem Aufbau der DNS-Moleküle auf den Vererbungsmechanismus geschlossen werden können. In diesem Fall liegt die Intelligenz in der Natur, und KI-Programme können sich darauf beziehen. Das steht aber in Widerspruch zur Annahme der intelligenzlosen, subjektfreien Natur.

Im andern Fall verhält sich Kl zur Natur wie der Mensch, wird zum Subjekt, das von außen Regeln in der Natur interpretiert. Dann stellt sich die Frage, wann sich die künstliche Maschine vom Subjekt in ein Lebewesen wandelt. Denn wenn sie nicht nur Muster, sondern auch Regeln erkennen kann, wie soll die Selbsterkenntnis ausgeschlossen werden? Diese Fragen führen direkt in die science fiction und sind z.B. von Stanislaw Lem im Roman "Also sprach GOLEM" durchgespielt worden.

Der Mythos der zum Leben erweckten künstlichen Maschine beleuchtet nur grell das Paradox, in dem die Kl steht. Nachdem zuerst der Natur Selbständigkeit und Autonomie abgesprochen wurden, soll dann eine Maschine mit genau diesen Eigenschaften konstruiert werden, die sich selbständig in der Natur bewegen soll. Entweder ist ihr die Selbständigkeit als starrer Satz von Metaregeln vom Konstrukteur eingeimpft, dann wird sie sich nirgends orientieren können, wo sich der Konstrukteur nicht orientieren kann. Oder sie tritt der Natur so gegenüber wie der Mensch, und dann besteht Gefahr, dass sie auch dem Menschen so gegenübertritt.

Nachdem einmal die Vernunft Selbständigkeit und Autonomie für sich gepachtet hat und sich abstrakt über die Natur gestellt hat, stößt sie grundsätzlich an das Paradox, mit zunehmender Entfernung von der Natur jeden Inhalt zu verlieren, im Innern leer zu werden und sich selbst aufzulösen. Die andere Seite des Paradox ist, dass diese Vernunft zur Idee führt, dass über ihr eine höhere Vernunft steht, zu der sie das gleiche Verhältnis hat wie die Natur zur Vernunft. Mit der Künstlichen Intelligenz sollen die Methoden der Vernunft nachgebildet und in Maschinen entäußert werden. Und so entsteht zum einen die Angst, dass die Vernunft nicht mehr ist als Künstliche Intelligenz, zum anderen, dass sie von ihr überwältigt werden kann.

Nur 2 Auflösungen sind denkbar: Entweder wird auf wirkliche künstliche Intelligenz verzichtet, und übrig bleiben Expertensysteme, denen feste Regeln vorgegeben sind und die keine neuen Regeln entwickeln können. Oder der Ansatz der modernen Naturwissenschaft ist zu revidieren und statt künstliche Intelligenz zu entwerfen wird versucht, mit der in der Natur vorhandenen Intelligenz zusammenzuwirken.

2. Vorverständnis in der Mathematik

Dies Paradox ist konkreter zu fassen. An einer Reihe von Punkten soll aufgezeigt werden, wo in der Naturwissenschaft Vorverständnis über Regelmäßigkeiten formuliert ist. Für KI-Programme sind das Parameter, nach denen neue Regeln gefunden werden können.

In der modernen Mathematik herrscht der Weg vor, von Einzelinformationen, einzelnen Bausteinen zu komplexen Regeln und Aussagen zu gelangen. Das war in der euklidischen Geometrie schon angelegt, die von den einfachsten Figuren Kreis und Gerade ausging und aus ihnen komplexe Zeichnungen konstruierte. Im 19. Jahrhundert wurde es dahin erweitert, dass nun die Zahlentheorie Grundlage ist. Im Bereich der Zahlen werden Regeln und Regelmäßigkeiten erforscht, z.B. die Verteilung der Primzahlen, die Zerlegbarkeit von natürlichen Zahlen etc. Das kann zur Konstruktion von Mustern führen. Dies entspricht genau dem Weg der Informationsverarbeitung, die in Informationsmengen nach Objekten und Mustern forscht. Aber wo kommen die Regeln her, nach denen hier vorgegangen wird? Offenbar gibt es ein bestimmtes Vorverständnis, indem z.B. über die natürlichen Zahlen angenommen wird, dass sie gleichmäßig auf einer Gerade angeordnet sind. Diese Anschauung ist technisch im Entwurf von Rechenschiebern realisiert. Entsprechend dieser Vorstellung handelt es sich bei allen Operationen mit einfachen Zahlenmengen um lineare Bewegungen auf der Zahlengeraden, indem zwei Zahlen miteinander verknüpft werden und zu einer dritten Zahl auf der gleichen Gerade führen. Regelmäßigkeiten betreffen die Anordnung auf der Gerade und können zur Darstellung von Mustern auf der Gerade führen.

Schon dies Vorverständnis kann der Kl nicht vorgegeben werden. Wenn eine unbekannte Datenmenge zu interpretieren ist, kann keineswegs vorausgesetzt werden, dass diese Daten auf einer Geraden angeordnet sind und die Muster eindimensional sind. Vor diesem Problem standen z.B. früher die ersten Astronomen, die Daten über die Bewegung von Mond und Sonne sammelten. Sie mussten aus diesen Daten erst mal erschließen, auf welche Figur sie sich beziehen, ob die Sonne auf einem Kreis um die Erde wandert, oder die Erde um die Sonne. Hier handelt es sich um zyklische Regelmäßigkeiten, die in natürlichen Zahlen ausgedrückt werden können. Z.B. wurde früh die Regelmäßigkeit erkannt, dass im Verlauf von 19 Jahren Mond- und Sonnenzyklus in Übereinstimmung kommen. Ist dies eine Eigenschaft der Zahl 19 wie ihre zahlentheoretische Eigenschaft, dass sie eine Primzahl ist? Zahlenmystiker gingen immer davon aus, dass die Eigenschaften der Zahlen komplex und im Prinzip offen sind, dass sie alle Eigenschaften zusammenfassen, wo sie in der Natur vorkommen, also die Zahl 19 sowohl durch den Primzahlcharakter als durch ihre Sonderstellung für Mond- und Sonnenzyklus charakterisiert ist. Für die moderne Zahlentheorie ist das aber Mystizismus, der zurückgewiesen wird. Sie setzen die Zahlengerade und die Anordnung der Zahlen darauf absolut und erkennen nur Eigenschaften als wissenschaftlich an, die sich hierauf beziehen.

Für Programme mit selbständiger Orientierungsfähigkeit wäre dieser wissenschaftliche Absolutheitsanspruch tödlich. Dafür droht wiederum die kombinatorische Explosion. Denn wenn bei Vorgabe von irgendwelchen Zahlen alle möglichen Anordnungen auf Kreisen und sonst welchen Figuren durchgerechnet werden müssen, wird das möglicherweise kein Ende finden. Wie ist es dem Menschen gelungen, etwa von dem Vorverständnis wegzukommen, die Planeten bewegen sich auf Kreisen, hin zur Annahme, dass sie sich auf Ellipsen bewegen, ohne in uferlose Rechnereien zu geraten? Offenbar, indem nach inneren Bewegungsgesetzen gesucht wurde, was in diesem Beispiel zu den Keplerschen Gesetzen führte. Aber von Kepler ist bekannt, dass er in einer langen Orientierungsphase die astronomischen Daten auf alle möglichen Figuren zu beziehen versuchte. Und von ihm ist bekannt, dass sich sein Wissenschaftsverständnis vom Trend der modernen Naturwissenschaft absetzte und eher harmonischen Naturvorstellungen anhing. Es genügt also nicht, wie in der reinen Zahlentheorie nur bestimmte Regeln für die Anordnung der Zahlen zu benutzen, sondern es ist das Verfahren der Orientierung zu studieren, wie für die Interpretation von Datenmengen ein qualitatives Verständnis über ihre Anordnung gefunden wird, in der dann Regelmäßigkeiten und Gesetzmäßigkeiten entdeckt werden.

Für die natürlichen Zahlen wird in der Zahlentheorie ihre Eindimensionalität vorausgesetzt. Entsprechend werden die weiteren Dimensionen definiert. Für die zweidimensionale Fläche wurde seit der euklidischen Geometrie vorausgesetzt, dass sie eben ist und durch ein Koordinatenkreuz beschrieben werden kann. Für den dreidimensionalen Raum wurde angenommen, dass die 3 Raumachsen senkrecht aufeinander stehen, und dass der Raum überall gleich ist. Das Maß für den Raum ist in jeder Richtung die eindimensionale Zahlengerade. Im Prinzip herrscht vom Raum die Vorstellung vor, dass er ein endloses Gebäude von aufeinander gestellten, gleichartigen Blöcken ist. Kein Wunder, dass die Wahrnehmungsfähigkeit der fortgeschrittensten KI- Programme den Raum als Klötzchen-Welt intern darstellt und interpretiert.

In der Geschichte der Naturwissenschaft hat diese starre Vorstellung zur Konstruktion des n-dimensionalen und des unendlich-dimensionalen Raums geführt, die auch für den Menschen im Grunde jede Anschauung und jedes Vorverständnis verlassen, nur um das zugrunde liegende Verständnis des dreidimensionalen Klotz-Raumes zu retten. Denn jede Eigenschaft im Raum wie Wärme, Elektrizität, Atomsymmetrien etc. muss als zusätzliche Dimension danebengestellt und dem dreidimensionalen Raum zugeordnet werden. Was aber, wenn die räumlichen Daten nicht auf das Koordinatenkreuz bezogen werden, sondern auf andere grundlegende Muster? Woher kann eigentlich angenommen werden, dass bestimmte Daten räumliche Daten im Sinne des Koordinatenkreuzes sind?

Mit der komplexen Zahlenmenge gibt es in der Mathematik ein Beispiel für einen solchen Bruch im Vorverständnis. Zunächst werden alle komplexe Zahlen so veranschaulicht, dass sie in der Ebene liegen, so wie die sonstigen Zahlen auf der Zahlengeraden. Wenn aber mit ihnen multipliziert wird, kann es dazu kommen, dass das Produkt auf eine bereits vorhandene Zahl fällt. Das ist der gleiche Effekt, als würde versucht, statt der Zahlengerade für die natürlichen Zahlen die Uhrziffern als Anordnung zu nehmen. Ein Produkt 3 mal 5 z.B. ergibt auf der Zahlengerade die 15, auf der Uhr aber die 3. So ist es auch bei den komplexen Zahlen, wo die Produkte ebenfalls durch eine Kreisbewegung veranschaulicht werden. Um den Widerspruch zu vermeiden, wird angenommen, dass die komplexen Zahlen insgesamt nicht auf einer Ebene liegen, sondern auf unendlich vielen wie ein Buch verhefteten Ebenen. Durch das Multiplizieren kann daher von einer Ebene in eine andere gewechselt werden. Hiermit entsteht eine Raumvorstellung, die mit dem starren dreidimensionalen Raum nicht mehr vereinbar ist. Wenn nun Zahlenmengen vorliegen, stellt sich sofort die Grundsatzfrage, ob sie wie die komplexen Zahlen oder wie im dreidimensionalen Raum angeordnet sind oder noch anders.

Diese Überlegungen sind auch auf das Zeitverhalten anzuwenden. Wenn gleichzeitig verschiedene Daten gemessen werden, stellt sich die Frage, ob sie auf einer eindimensionalen Zeitachse angeordnet werden können, die ganz der Zahlengerade entspricht. Ist die Zeit überhaupt eindimensional? Was zeichnet die Zeit gegenüber den Raumachsen aus? Verschiedene Antworten hat die Relativitätstheorie von Einstein hierfür geliefert und das führt in neue Anordnungen des Zahlenmaterials, wenn zeitliche Beziehungen berücksichtigt werden.

Nach dem Vorbild des starren dreidimensionalen Raums werden in der Theorie der Differentialgleichungen alle Bewegungen so in Bestandteile zerlegt, dass diese wiederum untereinander in Beziehungen stehen, wie die drei Raumachsen. Bewegungen werden in ihre spezifischen Bewegungsachsen entkoppelt. Das hat in der Geschichte der Naturwissenschaft zu ungeheuer viel Erkenntnissen geführt. Dennoch ist zu fragen, ob dies Vorverständnis, dass alle Bewegungen auf inneren, voneinander unabhängigen, jeweils eindimensionalen Bewegungsachsen beruhen, überall gültig ist. Es wird wiederum da durchbrochen, wo Bewegungen in komplexen Zahlen beschrieben werden, etwa die elektrodynamische Bewegung oder die Schrödinger-Gleichung im Bereich der Atomphysik. Gegenüber der Standardvorstellung der Bewegungsachsen haftet diesen Theorien bis heute etwas Rätselhaftes an und sie können in den Physik-Vorlesungen nicht erklärt werden. Für ihre Erklärung ist erforderlich, dass das qualitativ andere Vorverständnis aufgezeigt und begründet wird. Alle Paradoxien der modernen Naturwissenschaft lassen sich auf dieses eine Paradox zurückführen, dass das Vorverständnis des dreidimensionalen Raums mit seinen einfachen Eigenschaften nicht überall weiterhilft. Und wenn das schon den Menschen so schwer fällt, mit welchen Schwierigkeiten hat das Kl-Programm zu kämpfen, das in Bereiche vorstoßen und selbständig agieren soll, wo möglicherweise ganz andere qualitative Zusammenhänge gelten.

Anschaulich ist der Gegenpunkt zur Vorstellung des glatten dreidimensionalen Raums der Knotenpunkt, der seine Umgebung qualitativ strukturiert. Ein solcher Knotenpunkt kann ein Massepunkt sein, der alle Körper in seiner Nähe anzieht, wobei die Bewegungskurven, mit denen die angezogenen Körper sich nähern, durchaus bei verschiedenen Knotenpunkten gewaltig differieren können. Wenn die moderne Naturwissenschaft nicht weiter weiß, kommt auch sie zur Annahme von Knotenpunkten, und nennt sie z.B. Schwarze Löcher. In diesen Fällen versagen alle Grundsatzannahmen über die Natur, denn keiner kann sagen, ob hier fremde Intelligenzen am Werk sind, die Natur selbst einen Eigenwillen entwickelt oder einfach noch unverstandene Phänomene vorliegen, die sich aber mal mit den Methoden der Naturwissenschaft erklären lassen. Diese Möglichkeiten geben wieder viel Raum für science fiction.

Knotenpunkte können auch Verzweigungspunkte sein, wo eine zunächst eindimensionale Bewegung verschiedene Richtungsmöglichkeiten einschlagen kann. Dann ist vom eindimensionalen Standpunkt aus die Bewegung hier formal a-logisch. Sie entwickelt sich in mehrere Dimensionen. In jeder Wechselwirkung sind solche Verzweigungspunkte anzunehmen, wenn die Wechselwirkung entsteht. Denn da fächert sich eine einfache Bewegung auf, strukturiert sich im Innern und organisiert eine Wechselwirkung, die ihren Bewegungslauf verändert. Beim Entstehen von Turbulenzen ist das z.B. optisch zu beobachten. Verrühre Milch in einer Tasse und beobachte die entstehenden Muster, die wie Spiralnebel in der Sternenwelt aussehen können.

3. Das Beispiel Geometrie

Die euklidische Geometrie kann sehr gut in ein Expertensystem gefasst werden. Die Datenmenge ist durch klare Bedingungen definiert: Grundlage ist die ebene Fläche, in der nur mit Kreisen und Geraden operiert wird. Technisch lässt sich das einfach durch einen Plotter realisieren. Die Konstruktionsregeln sind eindeutig vorgegeben und können als Regeln im Expertensystem abgestellt werden. Dem Expertensystem können dann Aufgaben gestellt werden, ausgehend von den Axiomen und Konstruktionsregeln bestimmte Zeichnungen zu erstellen oder auch einfache geometrische Sätze zu beweisen. In praktischen Anwendungen können Expertensysteme dieser Art eingesetzt werden zur Unterstützung von Technischen Zeichnungen.

Seit den Griechen sind bestimmte geometrische Aufgaben bekannt, über deren Lösbarkeit innerhalb der Geometrie gerätselt wurde. So die Quadrierung des Kreises oder die Dreiteilung eines beliebigen Winkels. Wie würde das Expertensystem verfahren, wenn ihm diese Aufgabe vorgelegt wird? Es würde in eine Kette von Versuchen geraten. Für die Dreiteilung von Winkeln wären Teillösungen möglich. Für die Quadrierung des Kreises könnten entsprechend der Rechnerzeit beliebig genaue Annäherungen gefunden werden. Aber innerhalb der vorgegebenen Regeln der euklidischen Geometrie kann nicht erkannt werden, dass diese Aufgaben mit diesen Regeln unlösbar sind.

In der Mathematikgeschichte sind diese Fragen mit der Theorie der komplexen Zahlen 1830 durch Galois geklärt worden. Ohne an dieser Stelle auf die Einzelheiten seiner Beweisführung einzugehen, fand er ein qualitativ anderes Verständnis für diese Aufgaben. Er unternahm nicht ständig neue Konstruktionsversuche, sondern untersuchte allgemein die mathematischen Eigenschaften des Konstruktionsweges. In welchem mathematischen Verhältnis stehen die Punkte, die mit den Regeln der euklidischen Geometrie gefunden werden können, zu den Punkten, von denen ausgegangen wird. Dies Verhältnis kann innerhalb der euklidischen Geometrie mathematisch nicht bezeichnet werden, dafür ist die Darstellung in den komplexen Zahlen notwendig. Galois ersetzte die Axiomatik und die Regeln der euklidischen Geometrie durch die Axiome und Regeln der komplexen Zahlen. Dies ist ein Beispiel, wie der Weg innerhalb der Regeln nicht weiterführte und neue Regeln notwendig wurden.

An dieser Fähigkeit sind Programme der Kl zu messen. Die gegenwärtig erfolgreichen Programme sind im wesentlichen Expertensysteme oder vergleichbare Programme, die nur mit vorgegebenen Regeln arbeiten können oder aus diesen Regeln neue Regeln ableiten können. Die Fähigkeit zum Übergang in andere Regelsysteme besitzen sie nicht und sind in diesem mathematisch bestimmbaren Sinn nicht selbständig.

4. Muster und Bewegung

Es kann vorausgesetzt werden, dass Programme Muster erkennen können. Um aus Mustern Regeln abzuleiten, ist das Verhältnis von Mustern und Bewegung zu studieren. Denn in der Bewegung entstehen die Muster, und Muster können die weitere Bewegung steuern. Nur durch Aufklärung dieses Wechselverhältnisses kann eine Chance gesehen werden für Kl.

Am klarsten ist der Fall in mathematischen Zahlenfolgen (und Programme können die Realität ja immer nur über Darstellungen in Zahlenfolgen wahrnehmen). Aus logischen Aufgaben sind Zahlenfolgen der Art bekannt:

1 4 9 16 25 36

oder

1 1 2 3 5 8 13 21

In diesen Fällen lässt sich relativ schnell das innere Gesetz, die Regel erkennen, die der Zahlenfolge zugrunde liegt.

Weit schwieriger wird es in Zahlenfolgen der folgenden Art:

2 1 3 5
2 2 3 6
4 1 4 8
7 1 11 18
3 2 3 9

In diesen Fällen ist das gemeinsame innere Gesetz in verschiedenen Zeichenblöcken zu erkennen und die Anordnung wird wesentlich. Die Auflösung lautet hier: Das Zeichen an der jeweils 2. Stelle hat Operationsbedeutung, wobei 1 für Addition und 2 für Multiplikation steht. DieAuflösung wird sichtbar durch die Umschreibung:

2 + 3 = 5
2 * 3 = 6
4 + 4 = 8

Hier ist im Muster eindeutig das Regelsystem versteckt. Letzten Endes geht es darum, dass im gleichen Zeichencode (hier den natürlichen Zahlen) sowohl die Daten als auch die Regeln dargestellt sind. Hofstadter hat in seinem Buch "Gödel Escher Bach" in aller Ausführlichkeit diese Situation beschrieben und bezeichnet sie als "seltsame Schleifen". Er hat den Beweisgang von Gödel nachgezeichnet. Gödel hat für die formale Logik einen Weg entwickelt, auch dort die Daten und die Operationssymbole im gleichen Zeichencode darzustellen. Er konnte beweisen, dass das Gebiet der Formalen Logik mit dieser Möglichkeit endlos ausufert und durch kein endliches Axiomsystem darstellbar ist. Die Formale Logik ist ein offenes System.

Das ist dahin zu verallgemeinern, dass in allen Fällen, wo Daten und Operationssymbole im gleichen Zeichencode stehen, offene Systeme vorliegen. In diesen Fällen gibt es nicht nur die kombinatorische Explosion. Kombinatorische Explosion heißt hier, dass ein Rechner viele Möglichkeiten ausprobieren muss, bis er das innere Gesetz von Zahlenfolgen gefunden hat. Sondern es tritt immer der Fall ein, dass alle vorgegebenen Regelsysteme unzureichend sind. Auch die Möglichkeiten der Expertensysteme, aus bekannten Regeln neue abzuleiten, reichen hier nicht. Denn die Axiomatik muss erweitert werden, es müssen neue Regeln gefunden werden, die qualitativ anders sind als alle bisher bekannten, die sich aus ihnen gerade nicht herleiten lassen.

Die gesamte EDV basiert darauf, Daten und Operationen im gleichen Code darzustellen, im Binärcode, der nur aus den Zeichen 0 und 1 besteht. Die Unterscheidung zwischen Daten und Operationssymbolen kann nur durch ihre Anordnung erfolgen, indem etwa immer abwechselnd Daten und Operationen stehen. Computer sind daher prinzipiell anfällig gegen sogenannte Virus-Programme, die nichts anderes tun müssen, als die Regeln dieser Anordnung zu erkennen und durcheinander zu bringen.

Umgekehrt sind der Verbesserung von EDV-Systemen keine Grenzen gesetzt. Da die Axiomatik und die Regeln im Prinzip unendlich sind, ist es möglich, ihre Zusammensetzung immer weiter zu optimieren und neue Programmiersprachen zu entwickeln. Kl-Programme können entworfen werden, die genau diese Aufgabe haben und damit anfangen, sich selbst zu verbessern. Wenn im Muster die eigenen Regeln angelegt sind und damit Bewegung möglich wird, ist damit immer die Chance gegeben, die Sache zum Selbstlauf zu bringen.

In der Natur sind zahlreiche Beispiele bekannt, in denen wie im Zahlensystem Daten und Operationen im gleichen Zeichensystem dargestellt sind. So das DNS-Molekül, wo die Anordnung der Atome im Makromolekül einerseits eine Datenmenge mit der Erbinformation darstellt und andererseits die Bewegung steuert, wenn neue DNS-Moleküle durch Kopien erzeugt werden.

Es gibt jedoch noch zahlreiche weitere Beispiele, wo Muster und Bewegung eng zusammenhängen.

In all diesen Fällen erzeugt die Bewegung ein Muster, durch das ihr weiterer Verlauf beeinflusst und möglicherweise gesteuert wird. Dies sind auch alles Grenzfälle, wo die Frage nach Intelligenz in der Natur neu gestellt wird. Wenn Kl-Programme in Bereiche vordringen, die der menschlichen Wahrnehmung nicht zugänglich sind, sollten sie dort Muster erkennen und mindestens erkennen können, ob es sich um qualitativ neue Muster handelt. Sie sollten nach Regeln in diesen Mustern schließen und mit diesen Regeln gezielt experimentieren, also in Wechselwirkung zu den Mustern treten. Hierbei bleibt wichtig, sich klarzumachen, dass alle diese Prozesse außerhalb der menschlichen Wahrnehmungs- und Überprüfungsmöglichkeit bleiben können. Es ist aber denkbar, dass sie natürlich irgendwann zu Resultaten führen, die ihrerseits wahrnehmbar sind. Kl-Programme würden so zu echten Black-Box-Prozessen werden, wo nur Ein- und Ausgabe bekannt sind, aber nicht die Verarbeitungsprozesse.

These: Nur wo in der Natur Wechselwirkungen zwischen Mustern und Bewegungen vorliegen, kann Kl möglicherweise realisiert werden, die darauf angelegt ist, diese Wechselwirkung zu erkennen und Prozesse auszulösen, in denen die Regeln dieser Wechselwirkung gelten.

5. Störungen

Die Modelle und Theorien der Naturwissenschaft gelten in Reinform nirgends in der Natur. Gegenüber der theoretischen Annahme und Vorhersage ist die Wirklichkeit immer "gestört", es kommt zu "vernachlässigbar kleinen" Abweichungen. Die Erkenntnis von Störungen dürfte für Kl-Programme die schwierigste und kritischste Aufgabe sein. Denn eine Reihe von Fragen müssen in diesem Zusammenhang geklärt werden:

Woran sind Störungen zu erkennen, was unterscheidet den Störfall vom Idealfall? Wenn ein Modell gefunden ist, kann alles als Störung identifiziert werden, was vom Modell abweicht. Aber vielleicht weist die Störung auch darauf hin, dass das Modell falsch ist und korrigiert werden muss. Ein berühmtes Beispiel stammt aus der Geschichte der Astronomie, als das ptolemäische Weltbild (wonach sich die Sonne um die Erde bewegt) zu immer komplexeren Störungsrechnungen führte, um die Beobachtungsdaten mit der Theorie in Übereinklang zu bringen. Bei der Untersuchung von Regelmäßigkeiten in mathematischen Zahlenfolgen kann sogar streng gesehen angenommen werden, dass es nie Störungen gibt. Wenn etwa eine Zahlenfolge wie

4 9 16 25 36 49

in den ersten Tausenden von Stellen immer die gewünschte Zahl liefert und dann plötzlich einen geringfügig abweichenden Wert, ist es theoretisch möglich, eine andere mathematische Regelmäßigkeit zu finden, wo dieser abweichende Wert in die Regel passt.

Da in der Natur verschiedene Bewegungsformen gleichzeitig wirken, kann für jede Bewegungsform eine Maßzahl gefunden werden, die ihren Bereich definiert. Soll z.B. die mechanische Bewegung eines Steines untersucht werden, ist diese Bewegung natürlich dadurch gestört, dass der Stein gleichzeitig elektrischen, magnetischen und anderen Einflüssen ausgesetzt ist. Diese sind gegenüber der mechanischen Bewegung aber sehr klein und durch ein Maß muss bestimmt werden, wo die Grenzlinien zwischen den Bewegungsformen liegen. Erkenntnis von Mustern und Regeln reicht also nicht aus, für Regeln und Mustern ist ihr Wirkungsbereich zu erkennen.

Wenn es gelungen ist, den Wirkungsbereich zu definieren, muss dennoch analysiert werden, wie sich Störungen aus anderen Bewegungsformen auswirken. Ist die Bewegungsform in der Lage, kleine Störungen aufzufangen und auszugleichen? Oder kann umgekehrt der Fall eintreten, dass kleine Störungen, die zunächst vernachlässigbar erscheinen, sich dennoch zu Katastrophen aufschaukeln können? In der Natur tritt dieser Fall häufig auf und wird von der heutigen Physik als Tunneleffekt oder als Bewegung in verbotenen Zonen bezeichnet. Auf jeden Fall gehört es zu den qualitativen Eigenschaften von Mustern und ihren Bildungsprozessen, wie sich Störungen auswirken. Die Lage wird dadurch weiter kompliziert, dass die verschiedensten Störungen auftreten können und nicht vorhersehbar sind.

Möglicherweise handelt es sich auch gar nicht um Störungen, sondern nur um eine Gruppenbildung. Kein Baum gleicht dem andern, und daraus würde niemand schließen, dass alle Bäume gestört sind. Wittgenstein hat diese Situation als Familienähnlichkeit bezeichnet. In der klassischen Logik und im Logischen Positivismus ist dieser Fall ausgeschlossen worden. Entweder gilt: A ist gleich B, oder es gilt: A ist nicht gleich B, aber der Fall: A ist mit B verwandt (A ist B ähnlich), ist nicht möglich (tertium non datur). Daher ist diese Logik so nicht auf die Wirklichkeit anwendbar. Nur basieren alle bisherigen Programme der Kl auf der klassischen Logik. Um auf die Wirklichkeit anwendbar zu werden, müssen sie die Fähigkeit erhalten, Familienähnlichkeiten zu erkennen und von Störungen zu unterscheiden. Wo können Familienähnlichkeiten auftreten, welche Wirkungen haben sie? Können sie in Einzelfällen auf Störungen zurückzuführen sein (etwa auf Erbfehler), können sie Störungen hervorrufen? Wie weit reichen Familienähnlichkeiten, woran können sie gemessen werden (lassen sie sich um einen ideellen Kern gruppieren)? Schon in der menschlichen Wahrnehmung sind Familienähnlichkeiten oft umstritten und kaum einer kann bewusst benennen, welche Eigenschaften die Familienähnlichkeit hervorrufen.

Wenn es zu Störungen kommt, liegt eine echte Entscheidungssituation vor. Das Programm ist mit einer unvorhergesehenen Datenkonstellation konfrontiert und muss sie lösen. An seiner Reaktionsfähigkeit ist das Vermögen an Selbständigkeit abzulesen.

6. Irrgarten

Das Verhalten in einer ungewohnten Situation ist allgemein als Bewegung in einem Irrgarten zu studieren und zu planen. Am Beginn der Orientierung hat die Bewegung ausschließlich lokalen Charakter. Ausmaß und Tücke des Irrgarten können nicht im geringsten überblickt werden. Hier gibt es als erstes nur die Möglichkeit, mit Markierungen alle Fehlversuche zu kennzeichnen und den Rückweg offen zu halten. Dabei wird vorausgesetzt, dass sich der Irrgarten wenigstens lokal nicht ändert, dass es also überhaupt möglich ist, Markierungen zu setzen, und der Rückweg nicht durch zwischenzeitliche Änderungen verbaut wird und die Markierungen erhalten bleiben und wiedererkannt werden können.

Die sicherste Methode ist, systematisch alle Möglichkeiten auszuprobieren. Der Weg in einem Labyrinth kann immer gefunden werden, wenn alle durchlaufenen Verzweigungspunkte markiert werden. Ist eine Sackgasse erreicht, ist zum vorigen Verzweigungspunkt zurückzukehren und die Sackgasse zu kennzeichnen. Wird zu einem Verzweigungspunkt zurückgekehrt, wo alle möglichen Wege in Sackgassen führen, ist noch ein Schritt weiter zurückzukehren. Und so weiter.

Bevor nun alle Möglichkeiten getestet werden, kann gleichzeitig versucht werden, ein globales Modell von dem Irrgarten anzulegen. Das ist dann sinnvoll, wenn vermutet wird, dass der Irrgarten irgendwie regelmäßig aufgebaut ist. Wenn die Regel erkannt ist, stehen alle Türen offen. Also muss z.B. eine architektonische Aufrisszeichnung mitgeschrieben werden. Dann wird nicht nur lokal im Labyrinth markiert, sondern jede Verzweigung wird eingetragen, weiter vielleicht die Strecken und Winkel von einer Verzweigung zur nächsten usw. Wenn in der Zeichnung bestimmte Regelmäßigkeiten erkannt werden, kann versucht werden, hypothetisch die Zeichnung nach dieser Regel zu ergänzen und die nächsten Versuche können gezielt entsprechend diesem Entwurf unternommen werden. Solange es vor der Raumfahrt keine Möglichkeit gab, die Erde von außen zu photographieren, hatten alle geographischen Kartenwerke solchen Charakter. Alle kosmologischen Modelle verfahren bis heute nach dieser Methode, ebenso alle Modelle für das Atom und seine Bestandteile. Auch die ersten Aufzeichnungen für chemische Strukturen sind auf diesem Wege gewonnen worden.

Weitaus komplizierter wird es, wenn der Irrgarten nicht statisch ist und auch Markierungen im Irrgarten kaum angebracht werden können. Diese Situation lag in der frühen Seefahrt vor. Wurden alle natürlichen Markierungspunkte wie Küsten und Inseln verlassen, wurde die Fahrt schnell zur Irrfahrt. Wind- und Meeresströmungen beeinflussten die Weiterfahrt erheblich. Nur der Sternenhimmel einschließlich der Sonnenbewegung konnte als Orientierung dienen. Wind- und Meeresströmungen änderten sich häufig, und es genügte nicht, Verzweigungspunkte zu erkennen (wo etwa die Richtung oder das Tempo zu verändern sind), sondern auch die Regelmäßigkeiten der Strömungen waren zu erkennen. Als das gelungen war, war es plötzlich überraschend einfach, unter Ausnutzung der Meeresströmungen von Europa nach Amerika zu segeln.

Während der Schiffer wusste, dass er sich bewegt und spürte, wie er von der Strömung getrieben wurde, ist allein diese ganz grundsätzliche Erkenntnis und Orientierung für ein Kl-Programm von größter Schwierigkeit. Seit der Relativitätstheorie ist bekannt, wie schwer es sein kann festzustellen, ob die beobachteten Änderungen zu erklären sind aus Bewegungen der Objekte, die von einem ruhenden Standpunkt aus betrachtet werden, oder aus der Bewegung des Subjekts. Jeder kennt die Situation im Bahnhof, wenn verschiedene Züge abfahren und zu entscheiden ist, ob der eigene Zug oder der Nachbarzug startet. KI-Programme sind immer in Maschinen realisiert. Wenn sie Daten vorfinden und interpretieren, müssen sie entscheiden, ob diese Daten durch ihre eigene Bewegung beeinflusst sind (z.B. durch das elektrische Feld der Maschine, etc).

7. Rekursion

Für die Künstliche Intelligenz sind mit LISP (Listenprozessor) und PROLOG (Programming in Logic) spezielle Programmiersprachen geschaffen worden. Beide führen zu einer rekursiven Programmlogik. Rekursion ist logisch gesehen nichts anderes als der einfachste lokale Weg im Irrgarten. Was oben im Worten beschrieben wurde, kann in einer Sequenz in stärkerer Anlehnung an Programmiersprachen ausgedrückt werden. Rekursive Programme folgen dem Ablauf:

A: Programmstart bei POSITION(i)
B: Wenn bei POSITION(i) Endebedingung erreicht: STOP
C: Versuche, von POSITION(i) weiterzukommen. Wenn alle Wege von POSITION(i) als falsch gekennzeichnet sind, gehe zu D. Sonst wende auf POSITION(i) eine Regel an und gehe dadurch zu POSITION(i+1). Markiere den Rückweg zu POSITION(i), zähle 1 hoch auf 1+1 und starte das Programm neu
D: Wenn Punkt C nicht erfolgreich auszuführen ist, dann gehe zu POSITION(i-1) zurück und kennzeichne dort, dass der Weg zu POSITION(i) nicht erfolgreich ist. Setze i zurück auf i-1 und starte das Programm neu

Da aus dem Programm heraus das Programm aufgerufen wird, handelt es sich um Rekursion. Wesentlich für rekursive Programme sind die möglichen Positionen und die Regeln. Der Irrgartenlauf kann in dieser Sprache so beschrieben werden, dass die Positionen die Verzweigungsstellen sind und nur die eine Regel zugelassen ist, an der Verzweigungsstelle eine Richtung auszuwählen. Wenn es keine nächste Verzweigungsstelle mehr gibt, also eine Sackgasse erreicht ist, kann die Regel nicht angewandt werden und es ist ein Schritt zurückzugehen.

Im Laufe seiner Arbeit baut jedes rekursive Programm einen Suchbaum auf, indem alle Schritte protokolliert werden. Hierüber kann in jedem Fall eine Auswertung erfolgen, wie viele Verzweigungsmöglichkeiten an jedem Knoten möglich waren und bis in welche Tiefe in Sackgassen gegangen wurde. Das sagt im Allgemeinen über ein Problem aber nur recht wenig aus.

Durch eine kleine Variante kann oft schon ein besserer Überblick gewonnen werden. Hier wird nicht jeder Weg solange verfolgt, bis er zum Ziel oder in eine Sackgasse führt, sondern von jedem Knoten aus werden systematisch alle Folgeschritte danach geprüft, ob sie unmittelbar in eine Sackgasse führen. Es wird also nicht in die Tiefe, sondern in die Breite gearbeitet. Das wird zwar meistens länger brauchen, bringt aber in den ersten Schritten eine vollständige Analyse des Problems.

Viel bessere Auswertungen sind möglich,. wenn jeder Knoten eine Konstellation des Gesamtsystems darstellt. Dies ist zum Beispiel bei Schachprogrammen der Fall, wo jeder Knoten eine Spielkonstellation ist. Die Verzweigungsmöglichkeiten sind durch die Schachregeln gegeben und führen in neue Konstellationen. Auf dieser Grundlage können alle Knoten nach Eigenschaften überprüft werden, wie viele Figuren z.B. verloren gehen, ob Schach droht, ob ein Gabelangriff möglich wird etc. Entsprechend ist in allen rekursiven Programmen nicht nur ein Suchbaum aufzubauen, sondern jeder Knoten möglichst auszuwerten. Die einfachsten Eigenschaften sind z.B., wie viele Verzweigungsmöglichkeiten von diesem Knoten aus möglich sind, wie viel Schritte dieser Knoten vom Anfangspunkt entfernt ist (seine Tiefe im Suchbaum). Es sollten aber auch weitere Eigenschaften erkennbar sein, z.B. wie viele Wege über diesen Knoten führen, ob alle Wege von hier in Sackgassen führen etc.

Der nächste Schritt liegt im Vergleich verschiedener Suchprozesse. Die gleiche Aufgabe kann nacheinander mit verschiedenen Suchmethoden bearbeitet werden. Sie kann auf verschiedenen Wegen zum Ziel führen. Umgekehrt können die Suchbäume zur Lösung verschiedener Aufgabenstellungen verglichen werden. Hieraus können heuristische Lernerfahrungen abgeleitet werden. So kann es sich z.B. als sinnvoll erweisen, die Suchmethoden in die Breite und die Tiefe zu kombinieren, indem alle Wege bis in eine bestimmte Tiefe verfolgt werden und wenn sie bis da nicht zum Ziel führen, abgebrochen werden.

Aber es kommt nicht nur darauf an, die Eigenschaften der Verzweigungspunkte zu erkennen, sondern auch die Wege zwischen verschiedenen Verzweigungspunkten zu beschreiben. Wie in der Physik können Übergangsmatrizen angelegt werden, die die Wege zwischen zwei Punkten charakterisieren. Wie viele Wege zwischen verschiedenen Punkten gibt es, welche Länge haben sie, mit welchem Aufwand sind sie verbunden. Liegen auf dem Wege zahlreiche Abzweigungen oder handelt es sich um schmale Pfade. Gibt es zwischen verschiedenen Wegen Querverbindungen.

Die Darstellung der Wege sollte zu einem Strömungsbild führen. Gibt es benachbarte Wege, die irgendwo weit auseinanderlaufen, bzw. führen umgekehrt viele Wege zu gemeinsamen oder zu benachbarten Punkten zusammen? Wie viele Dimensionen sind zur Beschreibung aller Wege erforderlich? Anschaulich war orientiert am Labyrinth bisher immer vom zweidimensionalen Fall ausgegangen worden. Aber alle zahlentheoretischen und alle mit herkömmlicher EDV lösbaren Aufgaben reduzieren sich auf eindimensionale Fälle. Umgekehrt sind mehrdimensionale Fälle denkbar.

Mit einem Wort: die strenge Baumstruktur des Suchgraphen ist aufzulösen in Netzstrukturen und möglicherweise in mehrdimensionale Netze. Die Netzstruktur ergibt sich immer dann, wenn mehrere Wege sich kreuzen oder zum gleichen Ziel führen. Mehrdimensionale Fälle liegen dann vor, wenn die Entscheidung über die Richtung bei einer Verzweigung von qualitativer Bedeutung ist. Wird z.B. zur Lösung der Bewegung in einem Labyrinth die senkrechte Bewegung möglich, so gelingt es schnell, die trennenden Wände zu überbrücken und ganz neu Wege einzuschlagen. Auch ließe sich aus der Vogelperspektive ein Bild des Labyrinths zeichnen und damit ohne viele Fehlversuche eine globale Lösung finden.

Insgesamt schlägt der Suchprozess einen Weg von der formalen Logik zum Entwurf komplexerer Muster ein. Alle Erfahrungen, die nach und nach gesammelt werden, können zunächst in der Gestalt von logischen Sätzen dargestellt werden:

Diese Aussagen gelten zunächst nur lokal für die einzelnen Erfahrungen und sollen verallgemeinert werden. Und vor allem sollen sie geordnet werden.

Die gängigsten Methoden sind hierbei:

Wurde von rekursiven Suchprozessen ausgegangen, führt dies weit über den einfachen Suchbaum hinaus. Auch die KI-Forschung ist praktisch diesen Weg gegangen. Anfangs war gehofft worden, alles auf die formale Logik zurückführen zu können. Das führte aber in die kombinatorische Explosion. Seither gibt es verschiedenste Ansätze, mit Rahmen (frames), semantischen Netzen oder objektorientierten Sprachen (die sich auf Hierarchien, Objektbildung, Strukturvererbung konzentrieren) weiterzukommen. Die heutigen KI-Sprachen LISP und PROLOG können nur den ersten Schritt darstellen, der sich ganz auf den Irrgartenlauf beschränkt und zu Expertensystemen führt.

8. Maße

Um in dieser Vielfalt von Möglichkeiten einen erfolgreichen Weg zu finden, ist letztlich die Existenz und die Erkenntnis von Maßen notwendig. Wenn das Wechselspiel von Mustern und Bewegung die Grundlage ist, auf der KI sich entfalten könnte, dann werden Maße ihr wesentliches Erkenntnismittel sein. Beispiele für Maße:

Bei allen Maßen handelt es sich um Grenzfälle zwischen quantitativen Prozessen und qualitativen Eigenschaften. Jedes Maß hat einen quantitativen Wert und wirkt sich messbar auf die von ihm beeinflussten Prozesse aus. Gleichzeitig handelt es sich um qualitative Eigenschaften, die gewissermaßen den Raum beschreiben, innerhalb dessen gemessen werden kann. Intelligenz kann dann darin gesehen werden, in der großen Fülle von Messdaten und Informationen nach Maßen zu suchen. Mit der Erkenntnis von Maßen werden aber alle bisherigen Messdaten neu interpretiert und geordnet. Diese Erkenntnisumbrüche ergeben nur einen Sinn und finden ihre Rechtfertigung nur darin, wenn vorausgesetzt wird, dass es in der Natur Maße gibt, um die sich die jeweiligen Theorien gruppieren.

Bei diesen Maßen kann es sich um feststehende geometrische Figuren handeln wie in der platonischen Philosophie. Es kann sich um Zahlenverhältnisse handeln wie bei den Pythagoreern. Oder es geht um die Suche nach Weltharmonien wie bei Kepler und den Naturromantikern. Im Grunde geht die heutige Naturwissenschaft genau dann, wenn sie nach neuen Modellen sucht, nach dieser Methode vor. Die Naturwissenschaftler selbst umschreiben ihr Vorgehen mit Anleihen an religiöses oder mythisches Denken, berufen sich auf Plato oder Pythagoras, sind fasziniert von der Schönheit der neu gefundenen Zusammenhänge.

Hegel hat in der "Wissenschaft der Logik" den Weg von der formalen Logik zur Wissenschaft der Maße vorgezeichnet. Hier sieht er die eigentliche Aufgabe der Mathematik. Das kann auch heute als Urteil über die Perspektiven der Künstlichen Intelligenz übernommen werden. Sie geht notwendig von der formalen Logik aus und ihr Fortschritt wird davon abhängen, wie es gelingt, eine Wissenschaft der Maße zu entwickeln.

Dies alles kann auch negativ formuliert werden. In ihrer ersten Entwicklungsphase stößt KI an die kombinatorische Explosion. Sie ist nur vermeidbar durch ein lernfähiges Vorverständnis, dass sich auf die wesentlichen Regelmäßigkeiten konzentriert. Wo das gelingt, bleibt dennoch die Aufgabe, Störungen zu erkennen und auszugleichen. Das erfordert Erkenntnis der Maße. Wenn das ebenfalls gelingt, bewegt sich die Künstliche Intelligenz in einem wechselwirkenden Prozess mit ihrer Umgebung. Sie erkennt deren Regelmäßigkeiten und Regeln und lernt, sich in ihnen zu bewegen. Entsprechend den selbst erarbeiteten Regeln vergrößert sie ihren Horizont.

Weiter werde angenommen, dass sie sogar erkennt, wo Gefahren drohen, wo in ihrer Umgebung Grenzen oder "Schwarze Löcher" liegen, in deren Bereich sie nicht eindringen kann, da dort unbekannte Gesetzmäßigkeiten wirken, die für den aktuellen Erkenntnisstand maßlos sind.

Dies alles vorausgesetzt, bleibt eine weitere Gefahr. Der Erfolg von KI kann nur darin bestehen, dass sie in Auseinandersetzung mit ihrer Umgebung lernt und sich verändert. Aber der Lernprozess selbst kann sich verrennen. Die Kl kann in einen Sog geraten. Im günstigsten Fall handelt es sich um eine Sackgasse, deren Ende irgendwann erkannt und woraus gelernt werden kann. Dann wurde halt ein Umweg gegangen. Aber der Sog kann auch fatal wirken:

Diese Beispiele gehen von dem Bild aus, dass die Bewegung der KI von einer Strömung getragen wird. Also kann sie abtreiben, in Turbulenzen kreiseln, zerrissen werden oder stranden. Dies entspricht dem Irrfahrt-Bild. Nur ist hier nicht die physische Bewegung gemeint, sondern die Bewegung des Lernprozesses.

Zusammenfassend können die Perspektiven der Künstlichen Intelligenz daher so beurteilt werden, dass sie stehen und fallen mit der Strömungslehre. Die Strömungslehre führt zu Maßen. Wenn die nicht gefunden werden, sieht es schlecht aus für KI.

Dann droht die Gefahr, dass sie Katastrophen auslöst, indem sie maßlos wird. Und es droht die harmlosere Gefahr, dass sie unverständlich wird, wenn sie die Maße der menschlichen Anschauung verlässt. Die Strömungslehre muss aber auch praktisch sein. Sie muss sicherstellen, dass der Prozess der KI als Lernprozess sich selbst in einer Strömung bewegt und sie muss diese Strömung am Leben erhalten. In der Strömung muss ein Zusammenspiel zwischen Natur, Mensch und Maschine erhalten bleiben.

Literaturhinweise

1987


© tydecks.info 2002