Holismus, Reduktionismus, Gödel und Emergenz

Reduktionismus und Determinismus in der Physik *

Unschärfe und Relativität *

Big Bang, Superstrings und die Welttheorie *

Holismus *

Holistische Hierarchien durch organisierende Felder *

Emergenz *

Schwärme *

Superorganismen *

Kurt Gödel *

Auswege *

 

 

Ist künstliche Intelligenz möglich?

Kein Forscher, der sich mit Künstlicher Intelligenz befaßt, kann diese Frage beantworten. Der Grund dafür ist, daß wir – die Menschen – noch immer zu wenig über unsere Welt wissen. Die Frage, ob alles erklärbar oder voraussagbar ist oder ob eine göttliche Kraft, welcher Art auch immer, hinter den Kulissen des uns Zugänglichen wirkt, harrt ihrer Antwort.

Wir leben unter einem Paradigma, einem wissenschaftlichen Glauben, der uns mit immer neuen Erfolgen bei der Erklärung von Naturphänomenen, beispielsweise in der Medizin, vor Augen führt, wie unfehlbar die Wissenschaft sei. Dennoch gibt es Phänomene, auf die ich später kurz eingehen werde, die beweisen könnten, daß Vieles anders ist als es scheint...

Was hier aufbricht, ist der alte Streit in der Frage nach dem Ursprung. Nur wenn unser Ursprung eine wissenschaftliche Erklärung zuläßt (damit möchte ich nicht die Evolution in Frage stellen!), kann die Wissenschaft eine Methode entwickeln, gezielt eine Künstliche Intelligenz hervorzubringen. Wovon aber hängt die Erklärbarkeit ab?

In diesem Kapitel wird die Frage nach dem Bezug vom Detail zum Ganzen auf mehreren Ebenen, Philosophie, Physik, Biologie und Mathematik, umrissen. Ihre Implikationen werden einen Ansatz zur Klärung der oben gestellten Frage eröffnen. Eine Lösung ist allerdings nicht zu erwarten.

 

Reduktionismus und Determinismus in der Physik

Der Reduktionismus ist die Weltanschauung, die in der Wissenschaft zur Zeit am weitesten verbreitet ist. Unter Reduktionismus versteht man, daß ein Ganzes, ein System, ein Organismus, aus seinen Einzelteilen erklärt werden kann. Das heißt, daß die isolierte Beobachtung der Einzelteile und ihrer Beziehungen untereinander auf den Gegenstand in seiner Ganzheit schließen lassen. Durch das Zusammensetzen der Einzelteile kommt keine Eigenschaft hinzu, die sich nicht von den Einzelteilen her ableiten läßt.

Die Wissenschaft, die sich mit den kleinsten Teilen beschäftigt, um die großen Dinge zu erklären, ist die Physik. An ihrem Beispiel läßt sich gut zeigen, was Reduktionismus bedeutet und welche Rolle er bei der Frage nach der Machbarkeit der KI einnimmt.

Zur Zeit Newtons bis zu Anfang dieses Jahrhunderts hat die Physik den reinen Reduktionismus postuliert. Um 1800 nahm der französische Wissenschaftler Marquis de Laplace sogar an, daß exakte Voraussagen über die Zukunft möglich wären, wenn man den Zustand aller Energie und Materie des Universums zu einem bestimmten Zeitpunkt erkennen könnte. – Wenn man die Uhr zurückdrehte, passiere alles wieder ganz genauso. Gott, den Zufall und die Seele gebe es nicht. Die Welt sei vollkommen deterministisch.

 

Unschärfe und Relativität

Zu Anfang dieses Jahrhunderts ergaben sich jedoch einige Komplikationen mit diesem Weltbild. Angeregt durch Max Planck entstand die Quantenmechanik, während Einstein seine berühmte spezielle Relativitätstheorie formulierte. Erstere beschäftigt sich mit den vier Kräften, die in den Elementarteilchen wirken, während die Relativitätstheorie sich mit der Gravitation, der schwächsten Kraft, die aber auch weit außerhalb der Elementarteilchen wirkt, auseinandersetzt.

Einsteins spezielle Relativitätstheorie von 1905 besagt unter anderem, daß die Zeit eine Dimension des Raumes (Raumzeit) ist, die nicht mit konstanter Geschwindigkeit abläuft. Damit gelten alle klassischen Naturgesetze, die den Zeitfaktor beinhalten, beispielsweise die Erdbeschleunigung, von Fall zu Fall unterschiedlich. Zwar läuft die Zeit für den jeweiligen Betrachter eines Systems immer gleich schnell ab, jedoch kann ein anderer Betrachter, der sich an einem anderen Ort oder mit einer anderen Geschwindigkeit bewegt, einem anderen Zeitmaßstab unterliegen. Eine Atomuhr, die in einem Flugzeug um die Erde fliegt, geht anders als eine stationäre. Nach der Erdumrundung ist für die erste weniger Zeit vergangen, als für die Uhr, die sich nicht bewegt hat.

Während Einsteins Formeln noch mit Zahlen und eindeutigen Ergebnissen aufwarteten, hatte der Wunsch nach Erklärbarkeit in den Zwanziger Jahren ein jähes Ende: Werner Heisenberg veröffentlichte seine Theorie von der Unschärferelation. Sie besagt, daß man alles, was gemessen wird, durch die Messung beeinflußt. Je genauer man mißt, desto stärker wird das Ergebnis verfälscht. Nichts ist endgültig determinierbar, außer, daß es nicht determinierbar ist. Für alles herrscht ein beinahe zufälliges Prinzip – es kann nur in der Masse und nach Wahrscheinlichkeiten bewertet werden. Ein herber Schlag gegen den Reduktionismus!

Schlimmer noch ist, daß das Ergebnis der Messung erst feststeht, wenn diese vollzogen wird. Nach Erwin Schrödinger kann eine Katze, die sich in einem geschlossenen System befindet, gleichzeitig tot und lebendig sein. Die Entscheidung ihres Zustandes wird erst getroffen, wenn man das geschlossene System – die black box – öffnet und nachschaut. Vorher überlagern sich die zwei Zustände. Wahrheit wird zu einer statistischen Aussage.

Im Zuge dieser Theorien entstanden weitere Ansätze, die beinahe ins Esoterische abzudriften scheinen: Everetts Theorie der Vielen Welten beispielsweise besagt – sinngemäß –, daß sich das Universum ständig in unvorstellbar viele, parallele Universen aufteilt, je nachdem, welche Alternativen (Messungen) es gibt. Im Verlaufe der Zeit fallen dann manche Universen wieder zu einem zusammen, wenn ihr Zustand auf unterschiedlichen Wegen identisch wird. Wenn zum Beispiel ein Isotop zerfallen kann, wird ein Universum entstehen, in dem es tatsächlich zerfällt und eins, in dem es noch nicht zerfallen sein wird. Die massive Parallelität beinahe unendlich vieler Universen geht weit über das hinaus, was Science Fiction-Autoren bislang präsentiert haben, wahrscheinlich deshalb, weil wir uns diese Modelle nicht in ihrer totalen Konsequenz vorstellen können.

Die Ideen der Physik wurden im Zuge des Zwanzigsten Jahrhunderts zunehmend abstrakt. Man hatte zwar das Gefühl, der Wahrheit näher zu kommen, gleichzeitig wurden die Modelle, die sich in Formeln (E=m*c_) ausdrücken ließen, immer unhandlicher. Dabei ist es selbst im Falle der ´veralteten´ Newtonschen Gravitationsgleichungen bis heute nicht möglich, die Beziehung von mehr als zwei Körpern exakt zu berechnen. Während die klassisch, deterministisch betrachteten Systeme unvorhersagbar sind aufgrund der Komplexität der Rahmenbedingungen, sind quantenmechanisch betrachtete Systeme unvorhersagbar, weil ihr Verhalten in unterschiedlichen Welten anders ist und es deshalb non-kausal scheinen kann.

 

Big Bang, Superstrings und die Welttheorie

Dennoch ließ die Physik nicht von ihrem reduktionistischen Weltbild ab. In der Jahrhundertmitte kam deshalb konsequenterweise die Forschung nach der Entstehung des Universums auf. Die Frage, ob es zeitlich oder räumlich endlich ist, betrifft die Annahme, daß die physikalischen Gesetze immer und/oder überall gelten. Sollte das Universum zu einem Zeitpunkt (oder einem Zustand, der keine Zeit hat) eine Ausprägung gehabt haben, die mit den bekannten Gesetzen nicht ableitbar ist, dann lassen sich auch die Naturgesetze nicht vom Ur-Zustand ableiten. Und so entbrannte der Streit um den Urknall, stets unter der Maßgabe, den Reduktionismus aufrechtzuerhalten.

Die Schwierigkeit, die diese Debatten anheizte, lag in einem Problem, das die Physik mit ihren beiden großen Theorien hatte: Sowohl die Relativitätstheorie als auch die Quantenmechanik waren die herausragendsten Erklärungsmodelle, die die Physik je kannte, allerdings gab es den Schönheitsfehler, daß beide Theorien nichts miteinander zu tun hatten. Sie waren unvereinbar. Diese Ungewißheit entfachte bereits sehr früh die Suche nach einer vereinheitlichenden Theorie. Man ging – und geht – davon aus, daß eine ´Welttheorie´ (GUT – Grand Unified Theory), den reduktionistischen Glauben wahren wird.

Der wohl bekannteste Vertreter der GUT – neben Albert Einstein – ist Steven Hawking. Er macht das Dilemma besonders deutlich: Entweder ist mindestens eine von beiden Theorien falsch oder es läßt sich keine Welttheorie finden. Letzteres interpretiere ich in seiner Konsequenz, daß die reduktionistische Anschauung falsch wäre.

1974 veröffentlichten Joel Scherk und John Schwartz erstmals einen neuen Ansatz: Die Stringtheorie. Erst zehn Jahre später, 1984, begann die Welt der Physik, sich auf breiter Ebene mit ihr auseinanderzusetzen. Im Gegensatz zu den klassischen Theorien, die mit Wellen und Teilchen umgehen, geht das Modell der Stringtheorie von einer zehn- oder sechsundzwanzigdimensionalen Raumzeit aus, die mit gummibandartigen Saiten (Strings) durchzogen ist. Der Abstraktionsgrad dieser Theorie scheint mir jedoch so hoch zu sein, daß es schwer werden wird, Experimente zu machen, Vorhersagen zu treffen und diese auch noch eindeutig verifizieren zu können.

Für die Künstliche Intelligenz bedeutet dies meiner Ansicht nach, daß die Erklärbarkeit von Denken, von Denkmechanismen und Bewußtsein aus der Sicht der Physik noch nicht gewährleistet werden kann. Wir wissen nicht, ob wir in einem reduktionistisch erklärbaren Universum leben. Es bleibt unklar, ob überhaupt etwas so ist, wie die Wissenschaft es uns darlegt. Allgemein läßt sich aber sagen, daß wir in der Lage sein werden, eine Künstliche Intelligenz zu erschaffen, wenn sich herausstellen sollte, daß man die Eigenschaften eines Ganzen bestimmen kann, bevor seine Einzelteile gefügt werden. Dann wird auch das menschliche Gehirn von seinen Funktionsprinzipien entschlüsselt werden, so daß ein Computer von entsprechender Struktur in der Lage sein wird, diese Prinzipien mathematisch (oder wie auch immer) abzubilden.

 

Holismus

Die holistische Weltsicht besagt, daß das Ganze mehr ist als die Summe seiner Teile.

Auf die Künstliche Intelligenz bezogen heißt dies, daß Bewußtsein möglicherweise eine Ebene darstellt, die oberhalb der chemischen und physikalischen Prozesse in einem Körper abläuft. Man kann das Bewußtsein oder Teile von ihm nicht in Gehirnzellen oder anderen Strukturen finden. Wenn man alle Einzelteile, die Zellen, Synapsen, Kortexe, Drüsen etc. betrachtet und ihre Interaktion beobachtet, dann sieht man nichts vom Bewußtsein. Erst wenn man die Aufspaltung des Gehirns (und was eventuell sonst eine Rolle spielt) in Einzelsegmente unterläßt – wenn man zurücktritt –, kann man das Bewußtsein erkennen.

Holistische Weltsichten gehen stets von der Untrennbarkeit der Betrachtungsebenen aus, wenn nicht sogar davon, daß Ebenen gar nicht erst angenommen werden können. Man kann Phänomene nicht sezieren, indem man Teilstücke betrachtet (– Dies würde allerdings auch bedeuten, daß man gar keine Objekte differenzieren kann, also auch keine Begriffe hätte also auch nicht Denken könnte. Da wir Begriffe haben, auch für untergeordnete Teile, bis hin zum virtuellen Quark, ist es sinnvoll, die Begriffe auch zu benutzen, selbst wenn das Ganze mehr sein sollte als die Summe seiner Teile).

Bislang untersucht man Einzelphänomene des Bewußtseins. Beispielsweise verfolgt man die visuelle Wahrnehmung über den Weg vom Licht zum gesehen Bild. Man weiß ungefähr, was auf der Retina passiert, man kennt den Weg der Nervenbahnen zum visuellen Kortex, man hat eine ungefähre Vorstellung davon, wie ein Bild danach in Symbole verwandelt werden müßte, doch ab dann weiß man nicht im geringsten, wo, wie und was passiert. Die Spur verliert sich in Millionen Nervenbahnen verteilt auf das gesamte Gehirn. Wir wissen beinahe nichts davon, wie wir sehen.

Ähnlich verhält es sich mit der Sprache. Wir wissen zwar, daß es ein Sprachzentrum gibt, aber es bleibt völlig unbekannt, wo und wie sich eine Meinung gebildet wird. Wir wissen nicht einmal, wo sich die Information über die Bedeutung der Worte befindet. Wir nehmen an, daß wir in Sprache denken, aber wir sehen auch, daß es ein nichtsprachliches Denken gibt, unbewußte Komponenten des Seins, die sich unserem observatorischen Zugriff entziehen. Und für die computerspezifische Frage nach der Speicherkapazität das Verwirrendste: Bislang wurde keine Erinnerung lokalisiert. Wo ist der Speicher?

Es gab viele Experimente, bei denen man Ratten für spezifische Aufgaben trainierte. Beispielsweise mußten sie zur Lösung der Übungen ihre Umgebung kennen. Nun entfernte man nach und nach unterschiedliche Bereiche ihres Gehirns, in der Annahme, man könne den Bereich für das Erlernte isolieren. Dies geschah nicht. Egal, wo man den Ratten ein Stück Hirn entfernte, sie konnten sich stets erinnern. Eine Erinnerung hat keine Schublade im Gehirn, in die sie hineingestopft wird. Offenbar wird Erinnerung anders gespeichert, als bei Computern. Nicht nur, daß Information nicht ´pur´ abgelegt wird, sondern sie wird auch ´verteilt´ gemerkt.

Herbert A. Simon, einer der Pioniere der KI sagt, daß Erinnerungen in hierarchischen Listenstrukturen gespeichert werden. Seine Versuche über das Kurz- und das Langzeitgedächtnis unterstützen diese These. Jedoch ist nicht bekannt, wie und wo Erinnerungen und ihre listenartigen Querverweise untergebracht sind. Möglicherweise lassen sich diese Strukturen nicht aufdecken, weil sie nicht reduktionistisch aus der Struktur des Gehirns hervorgehen.

Ein Denkbeispiel zeigt die Problematik auf: Wenn man einen Gegenstand sieht, dann gelangt die visuelle Information über seine Struktur in unseren Denkapparat. Um zu erkennen, was für einen Gegenstand wir betrachten, müssen wir eine ´Schublade´ (oder einen ´Listeneintrag´) aufmachen, in der sich die Information über einen früher gesehenen, gleichen Gegenstand befindet. Wir assoziieren den neuen Gegenstand mit dem alten. Woher wissen wir aber, was der alte, früher gesehene Gegenstand ist? – Wir müssen erneut eine Schublade öffnen, in der dann sich ein noch früher gesehener, gleicher Gegenstand befinden muß usw.

Dieses vereinfachte Denkbeispiel zeigt die Schwierigkeit, die das mechanistische Kausalitätsprinzip des Reduktionismus im Falle des Denkens bzw. Erinnerns hat. Aus der reinen Information kann kaum eine Meta-Information, eine Information über die Information, abgeleitet werden. Die Frage danach, wie das menschliche Bewußtsein assoziiert, wie es unterschiedliche Informationen verknüpft, ist ein harter Brocken für die Reduktionisten und eine Spielwiese für Holisten.

 

Holistische Hierarchien durch organisierende Felder

Rupert Sheldrake, ein britischer Molekularbiologe, hat Anfang der Achtziger Jahre dazu einen sehr vielversprechenden Ansatz entwickelt: Jede Ganzheit (Holon) wird durch ein Morphisches Feld organisiert. Wenn eine chemische Reaktion, eine Idee oder was auch immer zum erstenmal in der Geschichte des Universums auftritt, wird der Charakter dieses Holons nicht durch seine Elemente bestimmt, sondern durch ein physikalisches (?) Feld, das die Meta-Information über das ´Mehr´ des Holons gegenüber der Summe seiner Teile besitzt. Wenn sich dieses Holon noch einmal bildet, seine Bestandteile also erneut zusammenkommen, wird sein Charakter bei seiner Entstehung durch das bereits vorhandene Feld stabilisiert und das Feld selbst wird verstärkt. Sheldrake nennt dies ´Morphische Resonanz´.

Die Tragweite dieses Ansatzes ist so spekulativ wie immens. In anderen Worten bedeutet diese ´Hypothese von der Formenbildung in der Natur´, daß die spezifische, holistische Ausprägung von Ganzheiten aus einer Gewohnheit der Natur entsteht. So läßt sich beispielsweise die Schwierigkeit erklären, bestimmte Kristalle zum ersten Mal in einem Labor zu synthetisieren. Es ist ein beobachteter Effekt, daß eine Substanz nach ihrer erstmaligen Kristallisation irgendwo auf der Welt auch in anderen Labors kristallisiert, und zwar mit erheblich geringerem Aufwand. Um dieses Phänomen ranken sich viele wissenschaftliche Mythen, aber der Ansatz von Sheldrake erscheint plausibel: Die Natur hat durch ein Feld gelernt, wie es die Substanz zu kristallisieren hat.

Seit der – übrigens sehr trockenen, kritisch rationalen – Veröffentlichung dieser Hypothese hat es zahlreiche Experimente gegeben, die für oder gegen Morphische Felder sprechen sollten. Die Ergebnisse sind sehr verblüffend. Wenn man kein Japanisch spricht, ist es leichter, ´echte´ japanische Verse auswendig zu lernen, als solche, die zwar japanisch sind, aber keinen Sinn ergeben. Brieftauben finden zu ihrem Taubenschlag auf direktem Wege zurück, auch wenn der Taubenschlag um über hundert Kilometer versetzt wurde.

Sheldrake nimmt an, daß sich die Erinnerung nicht im Gehirn befindet, sondern durch ein Morphisches Feld organisiert wird. Das erklärt die Nichtauffindbarkeit von ´Gedächtnisspuren´, Erinnerungen an frühere Leben, telepathische Erlebnisse etc. – Mit Sheldrakes Ansatz läßt sich Holismus nach den Methoden der strengen Wissenschaft untersuchen und als Paradigma formulieren.

Für die KI bedeutet dieser – und jeder mir bekannte holistische – Ansatz, daß es zwar nicht ausgeschlossen ist, denkende Automaten herzustellen, daß wir aber noch sehr weit davon entfernt sind, die Mechanismen (sodenn man noch von Mechanismen reden darf) des Denkens zu verstehen oder gar abzubilden.

 

Emergenz

Der Begriff der Emergenz beschreibt ein vermittelndes Phänomen zwischen Reduktionismus und Holismus. Wenn sich Teile zu einem Ganzen formieren, emergiert das ´Mehr´ des Ganzen in typischer Weise aus seinen Teilen. Kevin Kelly führt das Beispiel des Wasserstrudels am Badewannenabfluß an: Wenn man das Wasser in der Badewanne abläßt, bildet sich am Abfluß ein kleiner Strudel. Der Charakter dieses Strudels ist nicht durch die Struktur von Wassermolekülen vorgegeben, er wird im Verlaufe seiner Existenz nichtmal von denselben Molekülen gebildet. Seine Form und sein Auftreten ist allerdings typisch (Ur-Formen) und weitgehend vorhersagbar – im Gegensatz zum Holon!

Wenn aus der Summe der Teile ein ´Mehr´ emergiert, dann hat dies eine eigene Qualität, so wie ein Wald außer einer Ansammlung von Bäumen auch noch Lebensraum oder Organismus ist. Die hinzugewonnenen Qualitäten werden nicht durch die Struktur des Einzelteils abgedeckt, sondern durch deren spezifisches Zusammenwirken.

Je komplexer Systeme werden, desto schwieriger wird es, vorherzusagen, was aus der Summe seiner Systembestandteile emergiert.

Alain Turing, einer der frühesten KI-Forscher, soll einmal gesagt haben, daß aus den Computern, wenn sie denn komplex genug werden, ein Bewußtsein emergieren wird. Er glaubte fest daran, daß es eine Grenze gibt, ab der mathematisch-logische Berechnungen jeden Denkprozeß abbilden können, was folglich bedeutet, daß das abbildende System selber denken muß.

 

Schwärme

Ein gutes Beispiel für Emergenz findet sich in der Schwarmtheorie. Eine Fischschule verhält sich in gewisser Weise wie ein Einzeltier, allerdings nicht unbedingt wie ein größerer Fisch. Es gibt innerhalb dieses Schwarms keinen Anführer, der einen Plan hat, was der Schwarm machen soll. Es gibt nur die räumlichen und sensuellen Beziehungen der Fische untereinander und angeborene Verhaltensweisen, die darauf hindeuten, daß im Großen und Ganzen ´demokratisch abgestimmt´ wird, wie sich der Schwarm verhält. Änderungen in der Bewegungsrichtung gehen immer von einem (beliebigen) Tier aus, und die Reaktion darauf verbreitet sich im Schwarm wellenförmig. Wenn diese Reaktion den gesamten Schwarm durchläuft, findet die Veränderung statt. Wenn sie zwischendurch brandet, setzt sich der alte Status durch. Nicht jede Aktion eines Tieres setzt sich im Schwarm fort, und viele Ergebnisse solcher Entscheidungsprozesse entstehen aus parallelen Anstößen.

Interessant ist dabei, daß ein komplexes Verhalten in Schwärmen oft aus einfachen Regeln zu bestehen scheint. Der Versuch, den Flug eines Vogelschwarms auf einem Computer zu simulieren, brachte die Erkenntnis zutage, daß Schwarmtiere keine Kenntnis von der Gesamtform des Schwarms haben dürfen. Sie haben nur einen Überblick über ihre engste Umgebung und befolgen einen Satz von einfachen, wenigen Regelmechanismen, die über ihre Bewegungsrichtung, einzuhaltende Abstände, Hindernisvermeidung etc. Aufschluß geben. Die Form des Schwarms und sein Gesamtverhalten emergiert aus dem Verhalten der Einzeltiere. Die Charakteristik des Schwarms läßt sich jedoch nicht direkt aus den Einzeltieren und den Regelmechanismen ableiten.

Gegen die Emergenz in Schwärmen und für eine holistische Organisation, beispielsweise durch Morphische Felder, spricht die Tatsache, daß sich die wellenförmig ausbreitenden Regelmomente schneller ausbreiten, als die Reaktionszeit der Tiere erlaubt. Wenn in einen Fischschwarm eine Gefahr auftaucht, schießen die Fische auseinander. Das Tier, daß die Gefahr zuerst erkennt, reagiert zuerst und die anderen folgen dieser Reaktion. Obwohl sich der Fischschwarm blitzschnell in alle drei Raumdimensionen zersprengt, kollidieren die Tiere nicht miteinander, geradeso, als existiere ein Notfallplan, an den sich alle halten. Allerdings schwimmen die Fisch immer an unterschiedlichen Stellen innerhalb des Schwarmes, so daß es einen solchen, fest gefügten oder erlernten Plan nicht geben kann. Die gemessenen Zeiträume und Geschwindigkeiten widersprechen den reduktionistischen Erklärungsmustern.

 

Superorganismen

Schwärme mit komplexeren Organisationsstrukturen, beispielsweise Ameisenkolonien, nennt man nach dem Biologen William N. Wheeler ´Superorganismen´, weil das Verhalten der Kolonie wie ein Organismus erscheint, der aus einer Vielzahl individueller Organismen emergiert. Da sich ein Ameisenhaufen definitiv nicht wie eine Ameise verhält, wird deutlich, daß das Wesen der Emergenz eine Qualitätsverschiebung ist.

Douglas Hofstadter entwickelt in einer Kurzgeschichte die Vorstellung, daß ein Ameisenhaufen, ´Tante Colonia´, ein denkendes Wesen sei. Aus der Sicht eines Ameisenbären (Tante Colonias ´Chirurg´) wird beschrieben, wie sich arbeitsteilige Ameisen zu Teams zusammenfinden, die wiederum in Signalen organisiert sind, die wiederum Symbole darstellen. Obwohl die einzelne Ameise kein Bewußtsein für die Bedeutung der höheren Hierarchieebenen hat, und obwohl die Besetzung der Ebenen wechselt, weil Ameisen ausscheren, Teams versprengt werden oder sich Signale aufspalten, entstehen doch sinnvolle Muster – Gedanken –, die in dem Ameisenhaufen für Temperaturregulierung, architektonische Veränderungen oder ähnliche ´Begriffsrealisationen´ sorgen.

In gewisser Weise stellt das Bild von dem denkenden Ameisenhaufen eine Analogie zum menschlichen Bewußtsein dar. Schließlich würde man einer isolierte Hirnzelle nicht das Attribut der Denkfähigkeit zuschreiben. Erst die Vielzahl der Zellen bildet einen Komplex, aus dem die Fähigkeit des Denkens und das Bewußtsein erwächst.

Der Soziobiologe E. O. Wilson beschreibt Bewußtsein als einen Prozeß, bei dem unterschiedlichste Szenarien auf unbewußten Ebenen in Konkurrenz zueinander stehen. Die sich durchsetzenden Szenarien (mögliche Gedankenfragmente, Inhalte, Positionen) bilden die Teilstücke und Organisationsformen, aus denen das bewußte Denken emergiert.

Bei Wilsons Ansatz ist das Bewußtsein zwar in reduktionistischer Manier abhängig von den physikalisch-chemischen Prozessen im Gehirn, bleibt aber dennoch unvorherbestimmt.

Die Analogie von Schwärmen oder Superorganismen zu Rechnern will allerdings nicht so recht gelingen. Da Rechner nach dem von-Neumann-Prinzip arbeiten, das sie dazu zwingt, Operationen seriell auszuführen, haben wir im Rechner stets eine Trennung von Symbol und Prozeß (Speicher und Prozessor), während im Gehirn möglicherweise beide Teile konvergieren. Ich werde unten noch auf Automaten eingehen, die hochgradig parallel rechnen, die aber noch sehr wenig emergentes Verhalten zeigen.

 

Kurt Gödel

1931 hat der Mathematiker Kurt Gödel seine Arbeit ´Über formal unentscheidbare Sätze der Principia Mathematica und verwandter Systeme I.´ veröffentlicht. Er führt dort unter anderem einen mathematischen Beweis, Gödels Unvollständigkeitssatz, an, der zu einer der strittigsten Kontroversen der KI geworden ist.

Gödel sagt, daß jedes mathematische System, das auf widerspruchsfreien Aussagen beruht (Vollständigkeit), auch solche Aussagen beinhalten muß, deren Wahrheitsgehalt nicht durch das System selbst ausgedrückt werden kann.

Im Grunde heißt dies, daß alle auf reiner Logik (und andere sowieso) basierenden Modelle Paradoxien aufweisen. Obwohl eine Aussage wahr sein kann, kann man den Wahrheitsgehalt nicht mit den Mitteln des Systems herleiten.

Dies sollte die KI-Forschung nicht weiter schrecken, wenn nicht Gödels Strategie der Angelegenheit das Messer auf die Brust setzte: Gödel hat bewiesen, daß ein vollständiges, mathematisches Axiomensystem in allen Funktionen durch Zahlencodes abgebildet werden kann. Man gibt einfach jedem Operanden einen bestimmten Zahlenwert, codiert die zu operierenden Zahlen in ein equivalentes System, und schon kann man das Axiomensystem in einem anderen – oder im selben – Axiomensystem simulieren. Da das Axiomensystem vollständig ist, also auf einer Logik beruht, die allen erzeugbaren Aussagen das Attribut ´wahr´ oder ´falsch´ auferlegt, muß also auch das codierte Axiomensystem vollständig und damit ´wahr´ sein. Das Problem ist, daß das Axiomensystem nicht beweisen kann, daß das codierte Axiomensystem ´wahr´ ist. Hier liegt die Paradoxie.

Aus Gödels Darlegung folgt, daß man in jedem vollständigen Axiomensystem mindestens eine wahre Aussage hinzufügen kann, die das Axiomensystem nicht beweisen kann: Seine Selbstreflektion. – Bildlich gesprochen führt der Versuch, ein komplettes Modell von sich selbst zu machen zu einem unendlichen Teufelskreis, weil ja das Modell wiederum ein Modell des Modells beinhalten muß usw. usf.

Nun wird allgemein hin angenommen, daß das Wesen des (menschlichen) Bewußtseins die Fähigkeit zur Selbstreflektion ist. Wie soll aber eine auf Mathematik beruhende Abbildung von einer unserem Bewußtsein ähnlichen Struktur funktionieren, wenn es eine seiner grundlegendsten Eigenschaften nicht besitzen kann?

Eine Antwort kann lauten, daß es nicht möglich ist, ein künstliches Bewußtsein zu erzeugen. Man würde dazu eine Repräsentanzebene realisieren müssen, die dem Bewußtsein überlagert ist und selber kein Bewußtsein besitzt. Das hieße, daß das künstliche Bewußtsein in einem unbewußten Kontext gebunden und somit – je nach Anschauung – nicht wirklich bewußt wäre, sondern nur eine Simulation darstellte.

Eine andere Antwort hieße, daß menschliches Bewußtsein nicht wirklich zur Selbstreflektion fähig ist, da Gödels Satz sich in jede beliebige Komplexitätsstufe übertragen läßt – und so auch in die des menschlichen Geist-Apparates. Die Fähigkeit der Selbstreflektion betrifft nur einen Teilbereich, nicht aber das gesamte System, das man gemeinhin – und fälschlicherweise – als das Bewußtsein bezeichnet. Da der Mensch also sein eigenes Sein überschätzt, indem er meint, daß das, was er erkennen kann, seine ´höchste Bewußtseinsstufe´ sei, über der kein weiterer Entscheidungsmechanismus mehr sitze, sollte man einem mathematisch repräsentierten Bewußtsein, das ebenfalls über eine überlagerte Entscheidungsstruktur verfügt, nicht die Qualität des Bewußtseins absprechen.

Was also demnach passieren kann, ist, daß der künstliche Intelligenzalgorithmus sich einem Problem stellt, das für ihn nicht lösbar ist – da ja mindestens ein solches existieren muß. Diese ausweglose Iteration, die nie ein Ende findet und sich deshalb inhaltlich auf der Stelle bewegt, nennt man auch das ´Halteproblem´.

Mit anderen Worten: Der Computer ist zwar intelligent, stürzt aber eventuell ab. Diese sehr deterministische Auffassung wird allerdings dadurch relativiert, daß es einem Menschen dann theoretisch auch so gehen müßte, aber nicht tut. Vielleicht ist dem so, weil die Welt so komplex ist, daß allein die Vielzahl der Sinneseindrücke ihm die Fähigkeit zur endlosen Sackgasse verweigert.

 

Auswege

Die vorangegangenen Beispiele für Weltsichten und Paradoxien haben gezeigt, daß die Frage nach der Möglichkeit von Künstlicher Intelligenz nicht einfach die Frage nach immer mehr Rechenleistung und Programmiertricks ist.

Die Suche nach der Wirklichkeit, nach dem Ursprung und dem Wesen des Seins wird noch eine ganze Weile fortdauern. Wissenschaft bedeutet nach dem Erkenntnisphilosophen Sir Karl Popper, daß eine Hypothese niemals wahr werden darf, sondern daß sich eine Theorie ihrer Widerlegung stellen muß und somit nur in einem Schwebezustand gültig ist. Demnach wird es wahrscheinlich keinen endgültigen Beweis für die eine oder andere Theorie geben. – Vielleicht bedingen sich die Ansichten ja auch und leben in einer Ko-Existenz.

Daß dies nicht das Ende der Künstlichen Intelligenz als Disziplin ist, daß der Enthusiasmus an der Forschungsfront größer ist denn je, ist den Auswegen aus dem Dilemma geschuldet, den unkonventionellen Methoden der Forscher, die mit immer neuen Ansätzen Wege beschreiten, die sich nicht auf die Schaffung des ´reinen Geistes´ konzentrieren, sondern nach mehr Ganzheitlichkeit und Interdisziplinarität streben. Die folgenden Teile beschreiben Ansätze für solche Methodiken, reale Lösungen und