Suche Home Einstellungen Anmelden Hilfe  

Komplexe Systeme, intelligente Computer und Selbstorganisation

Klaus Mainzer  02.08.1997

Ein GesprŠch mit Klaus Mainzer, Professor fŸr Philosophie und Wissenschaftstheorie an der UniversitŠt Augsburg

Das menschliche Gehirn ist zum Vorbild fŸr komplexe lernfŠhige und selbstorganisierende Systeme geworden. Ist die Theorie der KomplexitŠt eine wissenschaftliche Mode? Werden Biocomputer allmŠhlich wirklich intelligent? Ist es sinnvoll, den Begriff der Selbstorganisation auf soziale Systeme zu Ÿbertragen? Lassen sich aus der Theorie der Selbstorganisation Handlungsanweisungen und Ideale ableiten?

Klaus Mainzer, Physiker und Mathematiker, lehrt an der UniversitŠt Augsburg Philosophie und Wissenschaftstheorie und ist Vorsitzender der Deutschen Gesellschaft fŸr Komplexe Systeme und Nichtlineare Dynamik. In zahlreichen AufsŠtzen und BŸchern hat er sich mit der Theorie komplexer Systeme, den erkenntnistheoretischen Fragen computergestŸtzter Mathematik, der Philosophie des Geistes auf dem Hintergrund der KŸnstlichen Intelligenz und dem Paradigma der Selbstorganisation beschŠftigt.
Zuletzt sind erschienen: Gehirn, Computer, KomplexitŠt (Springer Verlag, Berlin); Thinking in Complexity (Springer Verlag, Berlin); Computer - Neue FlŸgel des Geistes? (De Gruyter, Berlin) sowie Symmetries of Nature (De Gruyter, Berlin).

 Sie haben sich mit komplexen Systemen und KŸnstlicher Intelligenz aus einer philosophischen Perspektive beschŠftigt. Der Begriff der KomplexitŠt ist mittlerweile zu einem Modewort geworden und hat die zuvor aktuelle Chaostheorie Ÿberlagert oder verdrŠngt. Was ist denn das Spezifische an komplexen Systemen, und was ist wirklich neu in der KomplexitŠtsforschung?
  Klaus Mainzer: Die Theorie der komplexen Systeme ist zunŠchst einmal die umfassende Theorie, wŠhrend die Chaostheorie nur ein Bestandteil dieser ist. Die KomplexitŠtstheorie kommt aus der statistischen Mechanik. Dort betrachten wir Systeme mit vielen Teilen. Denken Sie an Gase oder FlŸssigkeiten, wo viele MolekŸle und Atome miteinander wechselwirken und diese Wechselwirkungen nichtlinear stattfinden. Wir haben also Mehrkšrperprobleme, wie wir sie auch aus der Astronomie kennen. Viele Einzelteile wirken aufeinander ein und kšnnen dann unterschiedliche makroskopische oder synergetische Effekte auslšsen. Beispielsweise regnet es in MŸnchen. Wenn Sie einen Wassertropfen sehen, dann kšnnen Sie fragen, wie eigentlich diese ideale Gestalt zustande kommt. Hier findet ein Selbstorganisationsproze§ dieser MolekŸle statt, da die Tendenz besteht, in der NŠhe des Gleichgewichts die Energie zu minimieren, d.h. die WassermolekŸle gruppieren sich dann in dieser idealen Tropfenform. Oder denken Sie an Eiskristalle, die dadurch entstehen, da§ ebenfalls WassermolekŸle in einem solchen gro§en komplexen System sich in bestimmter regulŠrer Weise arrangieren und dann diese schšnen Eisblumen oder Eiskristalle bilden. Das sind also Selbstorganisationsprozesse in der NŠhe des Gleichgewichts, die sehr vertraut sind.

 Was sind denn die Minimalbedingungen fŸr ein komplexes System? Was unterscheidet ein komplexes System, das sich selbst zu organisieren vermag, von anderen Systemen?
  Klaus Mainzer: Das Stichwort ist eben schon gefallen. Neben den vielen Teilen und Freiheitsgraden eines solchen Systems, wie ich es eben beschrieben habe, kommt etwas hinzu, was mathematisch die NichtlinearitŠt genannt wird. NichtlinearitŠt bedeutet, da§ viele Einzelteile gleichzeitig aufeinander einwirken. Das hat PoicarŽ am Beispiel der Astronomie bereits deutlich gemacht hat. UrsprŸnglich ging man davon aus, da§ alle kausalen VerhŠltnisse linear berechenbar seien. Wir haben den Mond hier und die Erde dort, und jetzt berechnen wir die Bahn dieses Erdtrabanten aus der Wechselwirkung der beiden Kšrper. Das ist auch berechenbar und eindeutig lšsbar. Wenn wir jetzt aber noch berŸcksichtigen, da§ die Sonne dazukommt, und auch die vielen anderen Planeten und Sterne ihre Wirkungen ausŸben, dann kommen wir zu dem sogenannten Mehrkšrperproblem. Und PoincarŽ konnte zeigen, da§ sich dies nicht mehr durch lineare, sondern nur noch durch nichtlineare Gleichungen darstellen lŠ§t, die praktisch nicht mehr eindeutig, sondern nur approximativ lšsbar sind. Das Entscheidende dabei ist, und da kommt die Chaostheorie herein, da§ diese Bahnen chaotisch werden kšnnen, das hei§t, sie kšnnen všllig irregulŠr und labil werden. Die nichtlineare Dynamik ist der entscheidende Punkt an der ganzen Geschichte.
Dabei spielen die Computer eine wichtige Rolle. Die nichtlinearen Probleme sind zwar schon seit Ende des letzen Jahrhunderts bekannt, aber wir sind erst heute auf Grund der ungeheuren Rechenleistungen dieser neuen technischen Systeme in der Lage, Ÿberhaupt eine solche Approximation durchzufŸhren und sie dann auch in den entsprechenden Computerbildern zu visualisieren, wie sie uns alle bekannt sind. Die nichtlineare Dynamik ist der entscheidende neue Aspekt. Theoretisch, wie gesagt, schon bekannt seit Ende des Jahrhunderts, aber jetzt eigentlich erst fŸr uns auch greifbar durch die gro§en Rechenleistungen der Computer.

 Als eines der interessantesten komplexen Systeme gilt ja das menschliche Gehirn. Nun ist aus der Perspektive der Biologie und der Evolutionstheorie jedes Organ eigentlich dazu da, bestimmte Zwecke zu erfŸllen. Selbstorganisierende Systeme mit einer nichtlinearen Dynamik kšnnen sich verŠndern, aber das scheint doch unkontrollierbar und unvorhersehbar zu sein. Wie kann dann aber ein komplexes System wie das Gehirn dennoch verlŠ§lich bestimmte Aufgaben lšsen?
  Klaus Mainzer: Das ist eine interessante Frage. DafŸr mu§ ich noch mal zurŸck zu meinen Wassertropfen und den Eiskristallen. Ich habe die Selbstorganisation eines komplexen Systems in der NŠhe des thermischen Gleichgewichts beschrieben. Das Gehirn ist natŸrlich ein komplexes System, ein "hei§es" thermodynamisches System, das sich jenseits des thermischen Gleichgewichts befindet. Der Witz an der Sache ist, da§ lebende Systeme erst fern des thermischen Gleichgewichts mšglich werden. Ansonsten wŸrden sie wie die Eisblumen in schšnen Kristallen und Ordnungen gefrieren. Lebende Systemen mŸssen sich fern von der Erstarrung halten, andererseits darf das System aber auch nicht zu weit vom thermischen Gleichgewicht weg sein und vollstŠndig chaotisch werden.
ZunŠchst einmal gibt es also die physikalischen Rahmenbedingungen - die thermodynamische Selbstorganisation fern des thermischen Gleichgewichts. Das hat das Gehirn mit vielen anderen Systemen gemeinsam, z.B. mit dem Laser. Der Laser ist auch ein offenes System, das im Energieaustausch mit der Umgebung steht und sich dadurch immer weiter vom Gleichgewicht entfernen kann. Lebende Systeme halten sich durch Nahrungsaufnahme fern von der Erstarrung und vermeiden so den Tod im thermischen Gleichgewicht. Aber was unterscheidet das Gehirn von diesen Systemen? 
Neben der thermodynamischen Selbstorganisation, die schon in der unbelebten Natur vorkommt, tritt bei der biologischen Evolution, also bei der Entstehung des Lebens, noch etwas anderes hinzu. Die Evolution hat es verstanden, eine neue Form der Selbstorganisation auszubilden - und das ist die kodierte Selbstorganisation, wie wir sie bei der Selbstreplikation der DNS von biologischen Systemen kennen. Das ist auch eine Selbstorganisation, fern des thermischen Gleichgewichts, so wie beispielsweise beim Laser, aber der Unterschied ist, da§ dieses komplexe System, in diesem Fall ein zellulŠres System, in der Lage ist, sich selbst zu replizieren. Das ist eine neue QualitŠt der Selbstorganisation.
Komplexe lebende Systeme entstehen unter den eben beschriebenen thermodynamischen Randbedingungen. Das Gehirn ist auch ein komplexes zellulŠres System, aber es hat wieder eine neue Form der Selbstorganisation entwickelt: es ist in der Lage, sich selbstŠndig in kurzer Zeit zu adaptieren und Informationen zu verarbeiten. Und das Entscheidende ist, da§ es lernen kann.
Es gibt also drei Formen der Selbstorganisation komplexer Systeme. Erstens die thermodynamische Selbstorganisation, z.B. die Kristalle im Gleichgewicht oder der Laser fern des thermischen Gleichgewichts. Zweitens gibt es die biologische Selbstorganisation im Sinne der kodierten Selbstrepoduktion der DNS. Und drittens entsteht mit der Entwicklung der Nervenzellen und der Nervensysteme die Mšglichkeit, das System durch Lernprozesse zu strukturieren, an die Umwelt anzupassen und entsprechende Verhaltensstrategien zu entwerfen. 

KŸnstliche Intelligenz

 Nun versucht man ja auch seit geraumer Zeit, im Bereich der kŸnstlichen Intelligenz, und jetzt auch im Bereich des kŸnstlichen Lebens, mit dem Ansatz "von unten nach oben" lernende Systeme kŸnstlich herzustellen. Warum gibt es hier so gro§e Schwierigkeiten, denn offensichtlich gelingt das ja nicht so, wie man sich das einst vorgestellt hat? HŠngt das wesentlich von der KomplexitŠt ab?
  Klaus Mainzer: Ja, in der Tat. Man mu§ heute zwei AnsŠtze grundsŠtzlich unterscheiden, die manchmal in der šffentlichen Diskussion vermischt werden. Es wird immer generell von kŸnstlicher Intelligenz gesprochen. Die klassische KI ist eine bestimmte Richtung in der Informatik. Sie ist ursprŸnglich von Turing und anderen begrŸndet worden, und die Idee ist, da§ man mit dem programmgesteuerten Computer in der Lage wŠre, menschliche Intelligenz zu simulieren. Das ist der harte Kern der klassischen KI-These. Programmgesteuerter Computer hei§t, da§ es einen Zentralprozessor gibt, wodurch jeder einzelne Schritt, in der Regel sogar sequentiell, vorgegeben ist. Durch die schnelle Verarbeitung der vorgegebenen Einzelschritte soll das Programm dann in der Lage sein, die menschliche Intelligenz zu simulieren. 
Wir haben dafŸr ein ganz aktuelles Beispiel: die Schachpartie mit Deep Blue. Das steht im Grunde in der Linie der klassischen KI. Deep Blue hat den Vorteil, da§ er ungeheuer schnell ungeheuer viele Informationen durchrechnen kann, aber er arbeitet všllig anders als die menschliche Intelligenz. Die menschliche Intelligenz ist zwar viel langsamer, aber sie ist in der Lage, gro§e Muster auf einen Schlag zu erkennen. Und hier kommt die KomplexitŠt herein. 
Man hat nun versucht, sich mit den neuronalen Netzen, wie sie seit den 80er Jahren entwickelt werden, immer stŠrker an der Arbeitsweise des menschlichen Gehirns zu orientieren. Man geht nicht mehr davon aus, da§ ein zentrales umfassendes Programm mit allen Einzelheiten und vielen Mšglichkeiten vorgegeben ist, sondern man versucht, ein neuronales Netz, also ein komplexes System von technischen Neuronen, zu entwickeln, die auf Grund ihrer nichtlinearen Wechselwirkung in der Lage sind, selbstorganisierend zu lernen. Das ist schon ein anderer Ansatz, wobei ich gleich hier an dieser Stelle bemerken mšchte, da§ alle heutigen neuronalen Netze noch weitgehend auf den klassischen programmgesteuerten Systemen, d.h. auf den klassischen Computern, simuliert werden. Das Ziel aber ist, eine neue Hardware zu entwickeln, d.h. also wirklich Systeme zu bauen, die unabhŠngig von programmgesteuerten Computern mit ihren riesen Rechenleistungen sind und tatsŠchlich den biologischen Systemen nŠherkommen, um so die entsprechenden Problemlšsungsleistungen zu realisieren.

 Es geistert auch oft die Vorstellung eines Biocomputers herum. Was kann man sich denn eigentlich darunter vorstellen?
  Klaus Mainzer: Biocomputer streben eine biochemische Informationsverarbeitung wie in lebenden zellulŠren Organismen an. Technische neuronale Netze arbeiten allerdings nicht immer nach dem Vorbild lebender Nervensysteme. Ich will das an einem Beispiel erlŠutern. Ich habe davon gesprochen, da§ es die Selbstorganisation eines komplexen Systems in der NŠhe der Gleichgewichts gibt. Das erste arbeitsfŠhige neuronale Netz ist von Hopfield, einem Festkšrperphysiker, in den 80er Jahren eingefŸhrt worden, der sich an solchen Selbstorganisationsprozessen in der NŠhe des Gleichgewichts orientiert hat. Hopfield hatte sich einen Ferro-Magnet als Vorbild genommen. Ein Ferro-Magnet ist ein komplexes System, das aus vielen kleinen atomaren Einzelmagneten besteht, die zwei Richtungen aufweisen kšnnen. Man stellt sich das anschaulich so vor, da§ der Pfeil eines atomaren Magneten nach oben oder nach unten zeigen kann. Wenn dieses System noch hei§ ist, also weg vom Gleichgewicht, dann zeigen alle irregulŠr in irgendwelche der beiden Richtungen. Die magnetischen Wirkungen der einzelnen Atome heben sich dann auf. 
Wenn man das System aber abkŸhlt, dann springen diese Dipole in eine Richtung und zeigen ein regulŠres Muster. Das empfinden wir makroskopisch dann als Magnetisierung. Daran hat Hopfield sich orientiert. Er hat denselben mathematischen Formalismus genommen und ihn nur psychologisch interpretiert. Statt der energetischen Wechselwirkungen, die die Festkšrperphysiker untersuchen, setzte er die Hebbschen Lernregeln ein. Erregte Neuronen verstŠrken ihre Verbindungen. Ein solches System ist in der Lage, aus einem verrauschten Bild von einer Figur, beispielsweise von einem Buchstaben (A), diesen in einem PhasenŸbergang zu erkennen. Das System sieht dieses verrauschte Muster, erinnert sich an seine Trainingsphase, in der ihm dieses regulŠre Muster beigebracht worden ist, und in einem PhasenŸbergang reproduziert es dieses Muster: es erkennt dieses Muster. An solchen einfachen VorgŠngen aus der statistischen Mechanik sind die neuronalen Netze orientiert. 
Man mu§ allerdings hinzufŸgen, da§ die Systeme von Hopfield noch relativ einfach waren. Die daraus weiterentwickelten neuronalen Netze sind sehr viel raffinierter und berŸcksichtigen teilweise sogar den Aufbau von unserem Kortex. Man wei§ ja aus der Gehirnforschung, da§ unser Kortex aus mehreren neuronalen Schichten besteht, die untereinander verschaltet und vernetzt sind. Dadurch ist dieses natŸrliche System in der Lage, in komplexer Weise Informationen zu verarbeiten und in Wahrnehmungen, GefŸhle oder Gedanken zu verwandeln. Man versucht daher mehrschichtige neuronale Netze auch technisch einzusetzen, um damit komplexere Aufgaben zu erledigen. Und die neuronalen Netze zeigen ja mittlerweile beachtliche Anwendungsmšglichkeiten bei †berwachungsaufgaben, bei der Voraussage beispielsweise von Bšrsenentwicklungen und und und ...

 Wenn man mal auf den Vergleich Gehirn und neuronale Netze eingeht, dann werden die neuronalen Netze aus identischen Neuronen gebaut, wŠhrend die Neuronen im Gehirn ja sehr unterschiedlich sind, und es daher auch unterschiedliche Kommunikationsstrukturen gibt. Kommunikation erfolgt etwa nicht nur elektrisch, sondern auch chemisch mit sehr vielen und verschiedenen Transmittern. Das scheint mir eine KomplexitŠtsstufe zu sein, die oft bei solchen Vergleichen nicht erwŠhnt wird. Das nasse Gehirn wird gewisserma§en unterschlagen.
  Klaus Mainzer: Da haben Sie všllig recht. Im ursprŸnglichen Ansatz, wie er von McCulloch und Pitts entwickelt wurde, sind identische Neuronen vorgesehen, wŠhrend wir natŸrlich im Gehirn eine Vielzahl unterschiedlicher Neuronentypen haben. Der andere Punkt betrifft die Wechselwirkung der Neuronen Ÿber die chemischen bzw. elektrischen Synapsen, wobei die chemischen Synapsen mit der AusschŸttung von Transmittern entscheidend fŸr die kognitiven Leistungen des Gehirns sind, weil sie sehr viel stŠrker modellieren und Langzeitpotenzierungen erreichen kšnnen, wie sie etwa fŸr GedŠchtnisleistungen und Lernprozesse erforderlich sind. Aber man mu§ zur Ehrenrettung der neuronalen Netze sagen, da§ gerade diese VerŠnderbarkeit durch Transmitter in den neuronalen Netzen durchaus berŸcksichtigt wird, indem die StŠrke der synaptischen Verbindung numerisch durch sogenannte Gewichtungen bezeichnet wird. Das sind einfach Zahlenwerte, die eine stŠrkere oder weniger starke synaptische Verbindung zwischen den Neuronen simulieren, um damit diese Lernprozesse zu ermšglichen. 
Das Entscheidende bei den neuronalen Netzen ist, da§ sie nicht fest verdrahtete Einzelteile oder Module sind. Die McCulloch-Netze bestehen nur aus logischen Schaltern, die in komplexer Weise vernetzt sind und so logisches Denken simulieren kšnnen. Was sie aber nicht kšnnen, ist Lernen. Das hei§t, sie kšnnen nicht selbstŠndig ihre synaptischen Verbindungen, also ihre Schaltungen, verŠndern. Das aber kšnnen die neuronalen Netze schon. Das ist dann doch eine wesentliche Gemeinsamkeit.

 Ihre Ehrenrettung der neuronalen Netze klingt so, als wŸrde der Fortschritt weitergehen kšnnen, so da§ sich tatsŠchlich irgendwann Ÿber diesen Ansatz auch die Leistung des menschlichen Gehirns simulieren lie§e. Gibt es prinzipielle Unterschiede zwischen den kŸnstlichen intelligenten Systemen und den menschlichen Gehirnen, die eine vollstŠndige Simulation verhindern?
  Klaus Mainzer: Das ist eine zentrale Frage, die an die Grenzen der heutigen Neurobiologie, der heutigen kognitiven Psychologie und der heutigen Neuroinformatik stš§t. Wir kšnnen heute nur Hypothesen formulieren.
Zusammengefa§t: Wir wissen aus der Gehirnforschung, da§ beispielsweise menschliche GefŸhle durch neuronale Verschaltungsmuster erklŠrt werden kšnnen. Wir sind in der Lage, Wahrnehmungsprozesse des Menschen mit komplexen Verschaltungs- oder Erregungsmustern natŸrlicher neuronaler Netze zu korrelieren. Jetzt stellt sich die Frage, ob es mšglich wŠre, diese ZustŠnde, also besonders die emotionale Seite des menschlichen Denkens, zu simulieren. Es hat sich ja beispielsweise beim Wettkampf mit Deep Blue gezeigt, da§ die emotionale Intelligenz des Menschen eine entscheidende Rolle spielt. Wir Menschen sind in der Lage, auf Grund emotionaler Bewertungen und Motivationen ganz anders zu reagieren, als solche technischen Systeme. Wenn wir in der Gehirnforschung diese Prozesse und die neuronalen Verschaltungsmuster kennen, wŠre es dann auch denkbar, da§ wir technische Systeme zu entwickeln vermšgen, die genau dies auch simulieren oder leisten kšnnen?
Die meisten Philosophen sagen, da§ das genau die Grenze ist, die von den technischen Systemen nicht erreicht wird. Ich sehe das anders. Wenn wir die nichtlineare Dynamik der emotionalen ZustŠnde und letztendlich der Bewu§tseinsbildung kennen, dann besteht meiner Auffassung nach nicht der geringste Zweifel, da§ bei sich selbstorganisierenden technischen Systeme solche emotionalen ZustŠnde und ZustŠnde von Bewu§tsein mšglich sind. Sie kšnnten dann bewu§t innere und Šu§ere ZustŠnde wahrnehmen und auch in diesem Sinne Schmerz empfinden. Derartige Systeme sind nach meiner Auffassung keineswegs an die Biochemie des Gehirns gebunden, das von der Evolution mehr oder weniger zufŠllig hervorgebracht wurde. Wenn wir die in ihm ablaufenden Wechselwirkungsgesetze, also die neuronale Dynamik, kennen, dann lie§en sie sich wenigstens prinzipiell in geeigneten Medien realisieren. 
Wenn wir an die Technikgeschichte denken, dann bestanden eine technische Realisationen nie darin, da§ wir die Natur einfach imitiert haben. Der Mensch lernte nicht dadurch fliegen, da§ er sich mit einem Federkleid, nach dem Vorbild der Všgel, in die LŸfte erheben wollte, sondern er hat seine technischen Maschinen entwickelt, indem er die Gesetze der Aerodynamik ausgenutzt hat. In unserem Fall wŠren dann einfach die Gesetze der Gehirnforschung zu berŸcksichtigen.
Ein wichtiger Punkt, der auch von Philosophen hŠufig eingewendet wird, ist, da§ man letztendlich immer auf irgendeine Software zurŸckgreift und da§ diese Software immer nur syntaktisch sei. Daraus begrŸndet sich dann der Einwand, da§ eine syntaktische Software, die nur aus der Manipulation von Symbolen besteht, selber nicht fŸhlen kšnne. Ich habe mir das Argument mal durch den Kopf gehen lassen. Im Grunde scheint mir das ziemlich trivial zu sein. Also eine Software kann nicht fŸhlen. Das wŠre so, als wŸrde ich behaupten, Galilei's Fallgesetz kann nicht fallen oder die Gesetze der Aerodynamik kšnnen nicht fliegen. Die Software dieser Gesetze ermšglicht aber reale VorgŠnge, nŠmlich technische Systeme, die fliegen und fallen, und die dann, wenn wir die Gesetze kennen wŸrden, auch fŸhlen kšnnen. 
Wir kšnnen heute diese technischen Systeme noch nicht bauen, weil wir die fŸr die Gehirnforschung, als auch die fŸr die Neuroinformatik entsprechenden Gesetze noch nicht kennen. Aber ich sehe von der wissenschaftstheoretischen Seite keine EinwŠnde, warum aus irgendwelchen prinzipiellen ErwŠgungen heraus solche Systeme nicht mšglich sein kšnnen. Was von der philosophischen Seite allerdings zu fragen wŠre, ist die ethische Perspektive, d.h. ob wir eine solche Entwicklung Ÿberhaupt wollen, ob wir fŸhlende Systeme oder Systeme mit Bewu§tsein entwickeln sollen.

Die Theorie der Selbstorganisation als soziale Theorie

 Die Theorie der KomplexitŠt gilt als eine allgemeine Theorie, die nicht nur auf natŸrliche Systeme, sondern auch auf soziale Systeme, beispielsweise auf Gesellschaften, angewandt werden kann. Gesellschaften werden in neuerer Zeit etwa unter der Metapher eines globalen Gehirns mit ihren Kommunikations- und Interaktionsstrukturen wiederum mit dem Gehirn verglichen. Ist es wirklich sinnvoll, eine Gesellschaft, oder eine bestimmte Gruppe von Menschen in Analogie zu physikalischen, chemischen oder biologischen Systemen als komplexes System zu begreifen, und dann auf der nŠchsten Stufe eine Gesellschaft als Gehirn zu verstehen, wobei die Individuen zu Neuronen werden? Man kann dadurch bestimmte Strukturen heraus arbeiten und durch Simulation bestimmte Voraussagen treffen. Sie sprachen vom philosophischen Problem der Ethik. Ist es denn, abgesehen von den mšglichen wissenschaftlichen Erkenntnissen, "gut", Menschen als Neuronen und Gesellschaften als Nervensysteme, zu beschreiben? FŠllt da nicht die ganze individuelle Dimension heraus, wodurch man, entgegen der eigenen Selbstbeschreibung, die einzelnen nur noch als Partikel versteht?
  Klaus Mainzer: Das ist sicher richtig. Aber vorweg zwei Bemerkungen, bevor wir zu diesen eher spekulativen Perspektiven der Anwendung solcher Systeme auf die Gesellschaft kommen.
ZunŠchst einmal ist es ein Faktum der jetzigen wissenschaftlichen Entwicklung, beispielsweise der …konomie oder auch der mathematischen Soziologie, da§ man die Theorie der nichtlinearen komplexen Systeme mit Erfolg benutzt, um beispielsweise die Dynamik von Wirtschaftssystemen zu beschreiben und zu erklŠren. Unsere Wirtschaftswissenschaftler sind bisher immer nur von linearen, berechenbaren Systemen mit einfachen Gleichgewichten ausgegangen. Das sind Systeme, die zwar lšsbar, aber die fŸr die Praxis wertlos sind, weil sie einfach von unrealistischen Voraussetzungen ausgehen. TatsŠchlich handelt es sich bei einem škonomischen System sozusagen um die schon angesprochenen Mehrkšrperprobleme von vielen Agenten, die miteinander wechselwirken. 
Adam Smith, der Vater der Marktwirtschaft, sprach von der unsichtbaren Hand, nach der sich Anbieter und Nachfrager selbstorganisieren und in ein Gleichgewicht bringen, eben in das Marktgleichgewicht von Angebot und Nachfrage. Allerdings ging er von der Wunschvorstellung aus, da§ dann, wenn dieses Gleichgewicht einmal erreicht ist, auch das Stadium des Wohlstandes einer Nation eintreten werde, und das geschieht durch die "invisible hand", also durch Selbstorganisation. Wir wissen heute alle, da§ diese Dynamik auch ganz anders verlaufen kann. Diese offenen Systeme sind hoch sensibel gegenŸber geringsten VerŠnderungen, wie wir dies aus der Chaostheorie wissen. Man spricht vom Schmetterlingseffekt. Bšrsenkrach und andere Beispiele zeigen, wie sich kleinste lokale VerŠnderungen in solchen Systemen zu gro§en Katastrophen oder VerŠnderungen aufschaukeln kšnnen.

 Kšnnte man denn andersherum aus dem Ansatz der KomplexitŠtstheorie auch Handlungsanleitungen ableiten, wie denn ein Wirtschaftssystem, das unter bestimmten Nšten steht, wie beispielsweise im Augenblick in Deutschland, sich durch bestimmte kleine Eingriffe so verŠndern kšnnte, da§ ein erwŸnschter Effekt entsteht? Oder sind da doch die KomplexitŠt und dadurch die Unvorhersagbarkeit zu gro§?
  Klaus Mainzer: Man mu§ zunŠchst sagen, da§ diese Entwicklungen natŸrlich noch im Flu§ sind und man nicht erwarten kann, da§ aus solchen Theorien sofort konkrete Handlungsbeschreibungen zur Behebung der Arbeitslosigkeit in Deutschland oder zur Neubewertung unseres Goldschatzes ableitbar sind. Aber ich kšnnte mir schon vorstellen, da§ wir auf diesem Wege sehr viel konkretere Informationen Ÿber das Verhalten von Wirtschaftssystemen bekommen. 
ZunŠchst einmal ist fŸr uns alle eine Botschaft aus den komplexen Systemen fŸr die Gesellschaft abzuleiten. Diese komplexen Systeme sind hoch empfindlich, d.h. geringste VerŠnderungen kšnnen, wie eben schon erwŠhnt, zu globalen VerŠnderungen des Gesamtsystems fŸhren. Das wirft ganz neue Fragen der Verantwortlichkeit auf. Denken Sie daran, da§ einzelne Manager durch ihr Versagen Tausende von ArbeitsplŠtzen aufs Spiel setzen kšnnen, da§ durch das Versagen einiger Ingenieure, beispielsweise bei der Entwicklung von komplexen ISDN-Systemen, technische Katastrophen ausgelšst werden kšnnen usw.

 Andrerseits kšnnte man aber auch sagen, weil komplexe Systeme nicht oder nur in einem bestimmten Mšglichkeitsraum voraussagbar sind, sinke die Verantwortung, da man nicht wissen kšnne, was das Ergebnis einer Handlung ist. In gewisser Weise gehen Chaos- und KomplexitŠtstheorie mit einem Ende der Planung oder der Kontrolle zusammen, auch oder gerade weil kleinste Handlungen grš§te Wirkungen haben kšnnen.
  Klaus Mainzer: Das ist sicher die verkŸrzte Botschaft, die von der KomplexitŠts- und Chaostheorie bei den Leuten angekommen ist. Die verkŸrzte Botschaft war, da§ ein System, wenn es chaotisch ist, nicht mehr steuerbar sei. Das ist sicher richtig, aber wir kennen heute auf Grund dieser Theorie die Nebenbedingungen sehr viel besser, unter denen solch ein System in chaotische ZustŠnde geraten kann. Durch das Studium entsprechender Modellierungen komplexer Systeme, sind wir eher in der Lage, die Nebenbedingungen zu erkennen, durch die das komplexe System Wirtschaft oder das soziale System in unkontrollierbare, trudelnde ZustŠnde kommen kann. TatsŠchlich ist es ja auch so, da§ wir durch das Studium etwa der unterschiedlichen Trajektorien die genauen Verlaufsformen der komplexen Systeme in begrenzten Zeitabschnitten beschreiben kšnnen. 
Kurzum, es ist keineswegs so, da§ wir nach dem Studium die HŠnde in den Scho§ legen kšnnen und sagen mŸssen, da§ alles sowieso nicht mehr vorausberechenbar sei. Das stimmt nicht. Im Gegenteil kšnnen wir die zukŸnftigen Szenarien sehr viel besser beschreiben. Wir kšnnen eine Reihe von Zukunftsszenarien unter verschiedenen Nebenbedingungen entwickeln, um dann durch politische oder wirtschaftspolitische Entscheidungen zu versuchen, solche Nebenbedingungen anzusteuern, von denen wir wissen, da§ eine hohe Wahrscheinlichkeit besteht, da§ sich das System in der einen oder anderen Richtung entwickeln kann. 
Aber grundsŠtzlich mŸssen wir uns in der Politik und in der Wirtschaft von den Vorstellungen verabschieden, da§ es den guten Herrscher im Sinne Platons oder die allwissende Partei gibt. Wir mŸssen uns von den Vorstellungen der Kommandowirtschaft, da§ also ein Zentralprozessor (programmierbarer Computer) alles Wissen hat und es nur noch darauf ankommt, dieses Wissen effektiv umzusetzen, verabschieden, denn genau so funktionieren die komplexen Systeme nicht.
Es ist also auch ein psychologisches Problem, das zu lšsen ist. Wenn ich die Reaktionen in der politischen …ffentlichkeit sehe, dann geistert bei uns immer noch die Vorstellung herum, da§ der starke Mann oder die starke Frau endlich mal Ordnung schaffen kšnnte. Aber das ist eine Illusion. Die gute Absicht pervertiert im komplexen System. Gutes zu meinen und zu wollen, reicht nicht aus. Die nichtlineare Dynamik mit ihren Effekten, die nicht voraussehbar sind, ist eine Botschaft, die der …ffentlichkeit vermittelt werden mu§. Wir brauchen zwar Mut fŸr die Entscheidung, aber auch SensibilitŠt im Umgang mit solchen komplexen Systemen. Das sind keine programmierbaren Maschinen. Die Wirtschaft ist keine Maschine, die wir mit Transmissionsriemen irgendwie in eine Richtung bringen kšnnen, sondern diese Systeme haben eher mit der Aerodynamik zu tun, mit der Bildung von Wolken und mit lebenden Organismen, die sich nicht so einfach wie eine Kuckucksuhr dirigieren lassen.

 Aus den Lehren der KomplexitŠtstheorien, die auf Selbstorganisation aufbauen, wird gern auch versucht, ein politisches Ideal abzuleiten. Selbstorganisation als politischer oder wirtschaftlicher Proze§ klingt ja erst einmal ganz gut und demokratisch. Es geht von unten nach oben, und die Einzelnen entscheiden. Es fallen die Hierarchieebenen und die beherrschenden Zentren an der Spitze wie das Ich in der Gehirnforschung weg. Lassen sich denn aus dem Begriff der Selbstorganisation, wie er in der KomplexitŠtstheorie verwendet wird, denn tatsŠchlich sinnvolle politische Ma§stŠbe entwickeln? Bietet die KomplexitŠtstheorie eine Art Heilsversprechen an?
  Klaus Mainzer: ZunŠchst einmal bin ich skeptisch gegenŸber irgendwelchen universellen Konzepten. Wir haben genug Erfahrungen in der Geschichte gemacht, um gegenŸber einem wissenschaftlichen Ansatz mi§trauisch zu sein, der auf einen Schlag alle Probleme lšsen sollte. 
Mein Buch "Thinking in Complexity" wurde in der Zeitschrift "Nature" im letzen Jahr von Ian Stewart, einem englischen Mathematiker, besprochen, der zum Schlu§ feststellte, und das hat mir sehr gut gefallen, da§ NichtlinearitŠt und KomplexitŠt sicher keine universelle Antwort darstellen, aber hŠufig eine bessere Denkweise. Wir haben damit ein Instrument, um Nebenbedingungen der Politik sehr viel genauer und feiner zu studieren. Wir haben neue Instrumente, um zukŸnftige Szenarien zu entwerfen. Aber was aus dieser systemtheoretischen Betrachtung mit Sicherheit nicht folgt, sind ethische oder politische Vorstellungen. Wir kšnnen nicht more geometrico ein ideales Menschenbild oder eine ideale Politik ableiten. Das gehšrt ja geradezu zum Tenor der komplexen Systeme, da§ wir entsprechende Vorgaben geben mŸssen, da§ wir sagen mŸssen, was wir eigentlich wollen. Und sich die Selbstorganisation der Natur unkritisch zum Vorbild zu nehmen, wŸrde ich fŸr verheerend halten.

 Es wird oft, vornehmlich in neoliberalen Kreisen, gesagt, da§ der Selbstorganisation der freie, sich selbst regulierende Markt entspreche und da§ die Auflšsung aller Regulierungsinstanzen, das ZurŸckfahren des Staates und eine grš§ere Freiheit fŸr die Einzelnen schlechterdings gut sei. Das hŠngt auch mit der auch aus der Naturwissenschaften kommenden Theorie zusammen. Eine solche †bertragung wŠre also fŸr Sie nicht gerechtfertigt?
  Klaus Mainzer: Wir mŸssen zwei Dinge auseinanderhalten. Die Theorie der komplexen Systeme ist eine umfassende mathematische Theorie, die alle mšglichen Dynamiken untersucht. Sie stellt všllig neutral fest, da§ dann, wenn die und die Nebenbedingungen gegeben sind, die Wahrscheinlichkeit steigt, da§ sich das System zu diesem Attraktor, zu jenem Gleichgewichtszustand oder schlie§lich in einen chaotischen Zustand verwandelt. Nicht mehr, aber auch nicht weniger. Es kommt darauf an, die Nebenbedingungen richtig zu stellen. Das ist unsere Aufgabe, das ist unsere Politik. Um ein krasses Beispiel zu nennen: Es wŠre Anfang der 40er Jahre auch mšglich gewesen, da§ sich global eine Politik mit Gewalt durchgesetzt hŠtte, die bestimmte rassistische Vorstellungen als Ideal verteidigt. Das wŠre auch eine komplexe Dynamik gewesen. Also alles ist mšglich. Es kommt darauf an, was wir wollen.
Es gibt bei einigen Naturwissenschaftlern tatsŠchlich die Tendenz, alles fŸr gut zu halten, was aus der Evolution kommt. Die Evolution hat teilweise mit ungeheuren Verlusten und chaotisch gearbeitet, und sie war nicht mit jedem Versuch erfolgreich. Ich kšnnte lakonisch sagen, sie hatte auch die Zeit zu experimentieren. Wir aber kšnnen uns in der Population Mensch, in der wir ja alle selber betroffen sind, auf solche Experimente der Evolution nicht verlassen. Die ethischen Vorstellungen, an denen wir uns zu Recht orientieren, etwa die Achtung vor den Menschenrechten, sind weder genetisch vorgegeben, noch sind sie neurologisch oder soziobiologisch angeboren. Das sind ethische Postulate, die sich im Laufe der kulturellen Entwicklung unserer Population Mensch entwickelt und auf Grund der Erfahrungen schlie§lich so durchgesetzt haben. Ich kann nur sagen "Gott sei Dank", da§ sie sich so durchgesetzt haben. Das sind Lernprozesse der Kultur, die keineswegs durch biologische, neurologische oder auch mathematische Gesetze vorgegeben sind.

 Neuerdings wird mit einigem Erfolg, ausgehend von †berlegungen des Evolutionstheoretikers Richard Dawkins, behauptet, da§ die kulturelle Evolution Šhnlich wie die biologische Evolution ablaufe, nur da§ sie auf einem kulturellen TrŠger basiere. Dawkins hat dafŸr den Begriff des Mems analog zu dem des Gens geprŠgt. Das ist eine Vorstellung, die offensichtlich viele Menschen fasziniert. Was halten Sie davon?
  Klaus Mainzer: Da ist etwas dran. Allerdings mu§ man genau beachten, da§ jedes komplexe System eine eigene Dynamik besitzt. Die biologische Evolution und die biologische Selbstorganisation ist auf Grund der nichtlinearen Wechselwirkung, etwa der Gene, eine bestimmte biochemische Form, die sich keineswegs auf die Eigendynamik der Lernprozesse Ÿbertragen lŠ§t, wie sie in der kulturellen Evolution ablaufen. Richtig ist, da§ es sich auch um eine komplexe, nichtlineare Dynamik handelt, aber man kann nicht einfach Gesetze aus der Biologie auf die Kulturgeschichte Ÿbertragen. Das wŠre sicher ein ganz platter Sozialdarwinsmus und mit Recht auch ideologieverdŠchtig. 
Man mu§ berŸcksichtigen, da§ wir es hier nicht mit der Wechselwirkung der Gene, also von chemischen MakromolekŸlen, zu tun haben, sondern mit Wechselwirkungen von bewu§ten, intentional orientierten Lebewesen. Diese unterscheiden sich von den Wechselwirkungen, wie wir sie beispielsweise aus Ameisenpopulationen oder Termitenvšlkern kennen. Kurz und gut: Richtig ist der formale Aspekt, da§ wir auch die Kulturgeschichte als Dynamik eines komplexen Systems verstehen kšnnen, aber falsch wŠre die †bertragung der biologischen GesetzmŠ§igkeit.

 Ist dieser Unterschied denn so gro§?
  Klaus Mainzer: Der Unterschied ist grundlegend. Menschliche Gehirne mit der FŠhigkeit zur Bewu§tseinsbildung entwickeln - im Unterschied zu Termiten - Erwartungshaltungen und alternative Vorstellungen Ÿber mšgliche ZukŸnfte. Diese Erwartungshaltungen kšnnen das tatsŠchliche Verhalten verŠndern. Daher kšnnen auch Messungen der menschlichen Gesellschaft - im Unterschied zu Tierpopulationen - die Systemdynamik verŠndern. Eine Wahlumfrage zum Beispiel, bei der wir uns fŸr eine Partei entschieden hatten, zeigt Mehrheiten, die uns wenig gefallen. Die Soziologen sprechen dann etwas gelehrt von der SelbstbezŸglichkeit der Gesellschaft. Einfacher gesagt: Als Teil der Gesellschaft sind wir bei Aussagen Ÿber die Gesellschaft hŠufig selber betroffen. Als Mathematiker sehe ich hier ein weiteres Beispiel fŸr RŸckkopplung und NichtlinearitŠt eines komplexen Systems. Auch die Population der Menschen bildet zwar einen neuen komplexen Superorganismus, dessen nichtlineare Eigendynamik sich allerdings grundlegend von Termitenvšlkern unterscheidet. Diese Eigendynamik eršffnet mehr Freiheiten fŸr den einzelnen, aber damit auch mehr Risiken und Gefahren. Der einzelne kann sich gegen den globalen Trend entscheiden und im Extremfall bewu§t untergehen. Ein Beispiel dafŸr wŠre die Widerstandsbewegung der "Wei§en Rose" in MŸnchen. Daher benštigen wir Menschen Mut und SensibilitŠt zum Handeln - eine Ameise nicht. 


Copyright © 1996-2000 All Rights Reserved. Alle Rechte vorbehalten
Verlag Heinz Heise, Hannover

Benutzer: gast • Besitzer: schwill • Zuletzt geändert am: