„...letztlich ist der Mensch, als Folge oder Krönung der Evolution, nur in der Totalität der Erde begreifbar.“ (Leroi-Gourhan, Hand und Wort, S.22)

Sonntag, 14. August 2011

Eva Horn/Lucas Marco Gisi (Hg), Schwärme – Kollektive ohne Zentrum. Eine Wissensgeschichte zwischen Leben und Information, Bielefeld 2009

(Eva Horn, Schwärme – Kollektive ohne Zentrum. Einleitung, S.7-26 / Eugene Thacker, Netzwerke – Schwärme – Multitudes, S.27-68 / Michael Gamper, Massen als Schwärme. Zum Vergleich von Tier und Menschenmenge, S.69-84 / Urs Stäheli, Emergenz und Kontrolle in der Massenpsychologie, S.85-99 / Eva Horn, Das Leben ein Schwarm. Emergenz und Evolution in moderner Science Fiction, S.101-124 / Sebastian Vehlken, Fish & Chips. Schwärme – Simulation – Selbstoptimierung, S.125-162 / Sebastian Giessmann, Netzwerkprotokolle und Schwarm-Intelligenz. Zur Konstruktion von Komplexität und Selbstorganisation, S.163-182 / Niels Werber, Schwärme, soziale Insekten, Selbstbeschreibungen der Gesellschaft. Eine Ameisenfabel, S.183-202 / Eva Johach, Schwarm-Logiken. Genealogien sozialer Organisation in Industriegesellschaften, S.203-224 / Lucas Marco Gisi, Von der Selbsterhaltung zur Selbstorganisation. Der Biber als politisches Tier des 18. Jahrhunderts, S.225-251 / Benjamin Bühler, Tierische Kollektive und menschliche Organisationsformen: Kropotkin, Canetti, Frisch und Lem, S.253-272) 

1. Statische Muster und lebendige Netzwerke
2. Politik als Kybernetik
3. Der Körperleib und die Zeit an sich
4. Zurück zu einer Metaphysik der zwei Welten?
5. Transgredienz und Emergenz: Konzepte vom Ganzen und seinen Teilen
6. Multitudes und Öffentlichkeit
7. Biologie und Information

Eugene Thackers 2004 in CTheory erschienener Aufsatz ist Eva Horn zufolge „bereits zum vielzitierten Klassiker eines kulturwissenschaftlichen Interesses an Kollektiven ohne Zentrum geworden“. (Vgl. Horn 2009, S.16) Thacker bewegt sich tatsächlich in einem weiten philosophischen Rahmen, der auch die europäische und deutschsprachige Philosophie umfaßt. Das bestärkt mich darin, in den folgenden Posts vor allem die philosophischen Implikationen der Komplexitätsforschung aufzugreifen und zu diskutieren. In diesem Posts soll es dabei vor allem um die Frage gehen, inwieweit Netzwerke der menschlichen Intentionalität ähneln. Dabei denkt man in der Komplexitätsforschung selbst vor allem an Phänomene wie Zielgerichtetheit und Zweckmäßigkeit. (Vgl. Thacker 2009, S.54ff.)

Was bei der Frage der Teleologie bzw. der Zweckmäßigkeit des Schwarmverhaltens vor allem auf den Begriff gebracht werden muß, ist die Differenz zur menschlichen Intentionalität:„Wie kann in einer dezentralisierten Organisation etwas ausgeführt werden? Wie kann das allzumenschliche Wesen von Begehren, Intentionen und Handlungen mit dem entschieden nicht-menschlichen Modell der Schwärme in Einklang gebracht werden?“ (Thacker 2009, S.54)

Um diese Frage zu beantworten, muß meiner Meinung nach die Ähnlichkeit zwischen Netzwerken und Schwärmen auf der einen Seite und menschlicher Intentionalität auf der anderen Seite noch weiter herausgearbeitet werden, als es dem Betrachter mit der offensichtlichen Teleologie und Zweckmäßigkeit von Schwarmverhalten sozusagen ‚in die Augen springt‘. Denn zielgerichtetes Verhalten schreiben wir Phänomenen aller Art schon dann zu, wenn sich etwas bloß in eine Richtung bewegt, die unseren Erwartungen widerspricht, z.B. gegen die Schwerkraft einen Abhang hinauf anstatt hinab. Wenn sich also ein Schwarm von Individuen auf perfekt synchronisierte Weise wie ein einziger „Superorganismus“ (Thacker 2009, S.48) verhält, so ist es nur allzu naheliegend, wenn wir dem Ganzen dieses Schwarmverhaltens Intentionalität zusprechen. Es ist aber letztlich nur ein oberflächlicher Eindruck, dem noch die analytische Tiefe fehlt. In welche Richtung könnte diese tiefer ansetzende Analyse gehen?

An diesem Punkt fand ich es besonders interessant, wie Thacker zwischen statischen und lebendigen Netzwerken unterscheidet, wobei er lebendige Netzwerke im Übergang zwischen technologischen und biologischen Gruppenbildungen verortet: „Auf einer bestimmten Ebene überschneiden sich lebendige Netzwerke und Schwärme.“ (Thacker 2009, S.53) – Thacker führt das Konzept, Netzwerke als statische Muster zu beschreiben, auf die Graphentheorie des Mathematikers Leonhard Euler (1707-1783) und auf Immanuel Kant (1724-1804) zurück, der sich der Eulerschen Graphentheorie für sein Konzept von Politik bediente. (Vgl. Thacker 2009, S.38-42)

Da ich an dieser Stelle auf Thackers Argumentation nicht im Detail eingehen kann (ohne den Rahmen eines Posts zu sprengen), will ich jetzt nur festhalten, daß das Euler-/Kantsche Modell Netzwerke in einem statischen Raum ansiedelt und deren Dynamik, also die Temporalität, ausblendet. Tatsächlich kritisiert Thacker Kants Konzept der Zeit als einer statischen, an körperliche Dinge gebundenem Gefäßzeit, ‚in‘ der etwas geschieht, während ‚außerhalb‘ der Zeit alles stillsteht: „‚Denn diese (Bewegung) setzt die Wahrnehmung von etwas Beweglichem voraus. (...) denn die Zeit selbst verändert sich nicht, sondern etwas, das in der Zeit ist.‘() Somit sind temporale, ephemere Vorgänge wie Bewegung und Veränderung a posteriori und hängen von unseren vorgängigen Anschauungsformen von Raum und Zeit ab: Wandel kann nur durch ein vorgängiges Konzept der Zeit (als verräumlichte ‚Gefäß‘-Zeit) nachgewiesen werden. Angesichts von Eulers und Kants Netzwerk-Konzepten scheint es, dass dynamischer Wandel – also genau das, was ein Netzwerk ausmacht – nur eine Begleiterscheinung ist.()“ (S.41f.)

Ob Thackers Kritik an Kant wirklich zutrifft, will ich an dieser Stelle dahingestellt sein lassen. Wichtig ist vor allem, daß sich Netzwerkwissenschaftler an diesem statischen Modell von Netzwerken orientieren: „Aus der Perspektive der Netzwerk-Wissenschaften ist das Netzwerk im Wesentlichen räumlich, und seine universalen Eigenschaften zeigen sich weniger in seinem dynamischen Funktionieren als vielmehr darin, dass ein Netzwerk statische Muster bildet, die jenseits seiner Temporalität existieren. Tatsächlich sprechen wir von der ‚Topologie‘ von Netzwerken als räumlichen, kartographierbaren, diskreten Entitäten.“ (S.37) – An dieser Stelle der Diskussion zu Netzwerken als statischen Mustern bewegen wir uns im „Modus technologischer Gruppenbildung“ (Thacker 2009, S.57), also auf der Ebene der Informations- und Kommuniktionstechnologie.

Diesem primär statischen, zeitliche Dynamik ausklammernden Modell setzt Thacker nun das Konzept von Bergson eingehen. (Vgl. Thacker 2009, S.42-45) Hier wird die Zeit von den Körpern bzw. Dingen als „Trägern“ von Wandel und damit von Zeit gelöst: „‚Es gibt Veränderungen, aber es gibt unterhalb der Veränderung keine Dinge, die sich verändern: die Veränderung hat keinen Träger nötig. Es gibt Bewegungen, aber es gibt keinen unveränderlichen trägen Gegenstand, der sich bewegt: die Bewegung schließt also nicht etwas ein, was sich bewegt.‘“ (Thacker 2009, S.42)

Mit diesem Konzept einer „Zeit an sich“ (Thacker 2009, S.43) wird es nun möglich, Netzwerke als rein dynamische und – wie Thacker schreibt – lebendige Prozesse darzustellen: „Eine Topologie oder Karte eines Netzwerks ist keine Repräsentation in Echtzeit; sie hat die Zeit auf den Raum reduziert, um uns alle möglichen Knoten und Kanten aufzuzeigen. Netzwerke erzeugen aber auch auf der Ebene unserer alltäglichen Erfahrung – in den Bereichen der Kommunikation, des Transports und des sozialen Lebens – Affekte, die irreduzibel auf Zeit basieren, also dynamisch und zeitlich sind. Netzwerke sind immer lebendige Netzwerke: Netzwerke, die funktionieren, und Netzwerke, die sich in einem Prozess befinden.“ (Thacker 2009, S.41)

An dieser Stelle – im Übergang von statischen zu lebendigen Netzwerken – geschieht etwas wirklich Spannendes: Netzwerke bestehen aus Knoten und Kanten. Als ‚Kanten‘ werden die Verbindungen zwischen zwei Punkten (‚Knoten‘) bezeichnet. In einem statischen Netzwerk sind die Knoten nur Knoten und niemals etwas anderes, und auch die Kanten sind Kanten und niemals etwas anderes. In einem dynamischen Netzwerk finden aber Veränderungen statt: Knoten können innere Zustände haben, die sich verwandeln können, oder Knoten können sich sogar in Kanten verwandeln, während sich Kanten in Knoten verwandeln können. (Vgl. Thacker 2009, S.45f.) Z.B. kann sich eine Person in einem Beziehungsnetzwerk im Laufe ihres Lebens vom Kind zum Erwachsenen zum Greis ändern oder sie kann in Verwandtschaftsverhältnissen verschiedene Rollen übernehmen und gleichzeitig Vater, Sohn, Bruder, Onkel und Neffe sein. Jedesmal ist ein- und derselbe ‚Knoten‘ etwas anderes. Oder ein Mensch kann im Gespräch, an dem er aktiv als Sprecher und Hörer teilnimmt, zum Dolmetscher werden und sich damit vom ‚Knoten‘ in eine ‚Kante‘ verwandeln, wenn z.B. jemand dazu kommt, der die Sprache der anderen Gesprächsteilnehmer – mit Ausnahme des ‚Dolmetschers‘ – nicht kennt.

Oder die ‚Kanten‘ in einem Beziehungsnetzwerk ändern sich: z.B. kann zwischen Mann und Frau aus romantischer Liebe eine Ehe erfolgen, zu der Kinder hinzukommen, so daß sich die Verbindung zwischen Mann und Frau in eine zwischen Vater und Mutter verwandelt. Und schließlich kann die Ehe auseinanderbrechen oder die Kinder werden erwachsen und verlassen das Haus, – und wieder verwandelt sich die Verbindung zwischen Mann und Frau.

Diese Zusammenhänge erinnern an Tomasellos Konzept der Rekursivität. (Vgl. meine Posts vom 25.04.2010 und vom 25.07.2011) Tomasellos Konzept beinhaltet, daß ein Gespräch, eine spezifisch menschliche Kommunikation, nur zustande kommt, wenn wir dazu in der Lage sind, die Intentionalität unseres Gesprächspartners zu antizipieren. Wir müssen wissen, was er weiß, um ihm etwas sagen zu können, was für ihn Bedeutung haben kann. Unser Gesprächpartner muß wiederum wissen, daß wir nicht nur irgendwelche sinnlosen Geräusche produzieren, wenn wir ihn ansprechen, sondern daß wir ihm etwas sagen wollen. Und er muß wissen, daß wir wollen, daß er das weiß.

Nur wenn alles das gegeben ist, unterscheidet sich das Gespräch zwischen zwei Menschen von einem ‚Gespräch‘ zwischen einem Menschen und einem Roboter, dem wir z.B. – nehmen wir an, es handelt sich um eine technische Haushaltshilfe – die Anweisung geben, uns ein Glas Wasser zu bringen. Bei dem Roboter wird niemand von uns voraussetzen können und noch nicht einmal voraussetzen wollen, daß er weiß, daß wir etwas von ihm wollen, noch daß er weiß, was wir von ihm wollen. Er muß nur einfach tun, was wir ihm sagen.

Zwischen der technischen Haushaltshilfe und ihrem Besitzer werden sich also Knoten und Kanten nicht verändern: wir haben es mit einem statischen Muster zu tun. Aber im Gespräch zwischen zwei Menschen werden sich Knoten und Kanten ständig ändern, weil sich ihre intentionalen Zustände im Gesprächsverlauf ständig ändern. Das ist das Prinzip der Rekursivität.

Ein anderes Beispiel ist die Sprache selbst, als grammatisches und lexikalisches System. Hier gibt es ebenfalls ‚Knoten‘ und ‚Kanten‘, nämlich Substantive und Verben. In der Sprache können nun problemlos Knoten zu Kanten werden; z.B. können wir‚Tisch‘ in ‚tischlern‘ umwandeln, oder aus Kanten können Knoten werden, wenn wir ‚laufen‘ in ‚Läufer‘ umwandeln. Diese ständigen Verwandlungsprozesse innerhalb der Sprache entsprechen den ständigen Wandlungen unserer intentionalen Zustände.

Ganz ähnlich zur Rekursivität unserer Intentionalität können lebendige Netzwerke nun ‚Schichten‘ bilden: „Beispielsweise sind Netzwerke weder flach noch eindimensional, sondern können sich überlagern und koexistieren; d.h. Netzwerke können in Schichten (layers) aufgebaut sein, also eine topologische Schichtung zeigen.“ (Thacker 2009, S.46) – Nehmen wir einmal an, daß Thacker hier nicht an eine Hintereinander- oder auch Parallelverschaltung von Netzwerken am Beispiel von Virusepidemien, Schulen, Bahnhöfen und Flugplätzen denkt, sondern an das wechselseitige Überlappen von neurologischen Schaltkreisen. Dann könnten sich zwischen diesen Schaltkreisen bzw. ‚Schichten‘ – etwa wie bei der Seismographie – Resonanzen ergeben; oder es kann, etwa wie zwischen verschiedenen Wasserschichten oder zwischen der Wasseroberfläche und der Luft, zu Lichtbrechungen kommen. Auch dieses Phänomen der Schichtung und der ‚Reflexion‘ im Bereich neurologischer Netzwerke im Gehirn erinnert an Rekursivität und damit an die Art und Weise, wie gemeinsame, soziale Intentionalität funktioniert.

Wenn man bis zu diesem Punkt kommt, an dem lebendige Netzwerke in ihren konnektiven Dynamik der rekursiven Struktur menschlicher Kommunikation und Intentionalität tatsächlich auf verblüffende Weise noch gleichen, stellt sich nun auf neue und gehaltvollere Weise die Frage danach, inwiefern sie sich von ihr unterscheiden. Dieser Frage soll in den folgenden Posts nachgegangen werden.

Download

Samstag, 13. August 2011

Eva Horn/Lucas Marco Gisi (Hg), Schwärme – Kollektive ohne Zentrum. Eine Wissensgeschichte zwischen Leben und Information, Bielefeld 2009

(Eva Horn, Schwärme – Kollektive ohne Zentrum. Einleitung, S.7-26 / Eugene Thacker, Netzwerke – Schwärme – Multitudes, S.27-68 / Michael Gamper, Massen als Schwärme. Zum Vergleich von Tier und Menschenmenge, S.69-84 / Urs Stäheli, Emergenz und Kontrolle in der Massenpsychologie, S.85-99 / Eva Horn, Das Leben ein Schwarm. Emergenz und Evolution in moderner Science Fiction, S.101-124 / Sebastian Vehlken, Fish & Chips. Schwärme – Simulation – Selbstoptimierung, S.125-162 / Sebastian Giessmann, Netzwerkprotokolle und Schwarm-Intelligenz. Zur Konstruktion von Komplexität und Selbstorganisation, S.163-182 / Niels Werber, Schwärme, soziale Insekten, Selbstbeschreibungen der Gesellschaft. Eine Ameisenfabel, S.183-202 / Eva Johach, Schwarm-Logiken. Genealogien sozialer Organisation in Industriegesellschaften, S.203-224 / Lucas Marco Gisi, Von der Selbsterhaltung zur Selbstorganisation. Der Biber als politisches Tier des 18. Jahrhunderts, S.225-251 / Benjamin Bühler, Tierische Kollektive und menschliche Organisationsformen: Kropotkin, Canetti, Frisch und Lem, S.253-272)

Das von Eva Horn und Lucas Marco Gisi herausgegebene Buch „Schwärme – Kollektive ohne Zentrum“ (2009) hat mich schon beim Lesen der bemerkenswerten Einleitung von Eva Horn überrascht: Hier wird tatsächlich noch kategorial zwischen den verschiedenen Phänomenbereichen unterschieden, wie es im aktuellen Mainstream der empirieverliebten, methodisch verarmten deutschen Fakultäten nur noch selten geschieht. Ich möchte deshalb meine Posts zu Horns und Gisis Herausgeberbuch mit einigen Bemerkungen zur Methodendiskussion in Horns Einleitung beginnen.

Vor allem auf zwei methodische Aspekte möchte ich näher eingehen: auf das Problem der „Darstellbarkeit“ (vgl. Horn 2009, S.14f.) und auf das Problem der „Übertragung“ (vgl. Horn 2009, S.20-26).  Die Frage nach der „Darstellbarkeit des Schwarms“ (Horn 2009, S.14) – wie übrigens auch die nach der „Übertragung“ – ist ein Problem des Wissenkönnens, der „Epistemologie des Schwarms“ (Horn 2009, S.13f.). Es besteht ganz einfach darin, daß Schwärme in gewisser Weise etwas Gestaltloses sind: „Körper() ohne Oberfläche“ (Horn 2009, S.14). Auf den ersten Blick erscheint diese Frage nach der Darstellbarkeit von Schwärmen als eher harmlos und eigentlich längst gelöst, denn die Algorithmen der Computersimulationen, mit denen chaotische Dynamiken wie Klimaveränderungen oder biologische Evolutionsprozesse simuliert werden, liefern ja wohl beeindruckende ‚Darstellungen‘ des scheinbar „Ungestalten“? (Vgl. Horn 2009, S.14)

Aber die Frage nach der „Darstellbarkeit von Schwärmen“ reicht viel tiefer, als die erwähnten Algorithmen, die ja ebenfalls die Berechenbarkeit des Unberechenbaren eher vortäuschen als einlösen und dabei vergessen machen, daß sie Schwarmverhalten niemals vorhersagen (kontrollieren), sondern nur beschreiben können. Das Problem, das Eva Horn hier anspricht, besteht aber vor allem darin, daß Schwärme sich der phänomenalen Struktur unserer ‚empirischen‘ Wahrnehmung fundamental entziehen. Wir haben es weder mit Dingen noch mit Beziehungen bzw. Prozessen zwischen ‚Dingen‘ zu tun. Natürlich stellen Schwärme Prozesse zwischen Individuen dar, – nur daß diese Individuen sich im Schwarm verwandeln, wie Heuschrecken, die ihre ganze Morphologie verändern, wenn sie zu schwärmen beginnen. Wenn die ‚Dinge‘ im Schwarm aber nicht mehr das sind, was sie außerhalb des Schwarms sind, dann heißt das, daß die „ontologische Frage“ nach dem „‚Sein‘ des Schwarms“ nicht nur einfach neu gestellt, sondern allererst einmal beantwortet werden muß. (Vgl. Horn 2009, S.14f.)

Horn hält dazu knapp und nüchtern fest, daß die „gegenwärtige(n) Beschäftigungen mit Schwärmen“ sich mit dieser Frage nicht befassen und sie deshalb „nicht selten auch die Differenzen zwischen dem Schwarm-Modell und anderen Formen von Kollektiven ohne Zentrum (verwischen)“. (Vgl. Horn 2009, S.15)

Mit diesem Problem des „Verwischens“ von Differenzen hängt nun das zweite Problem zusammen, auf das ich hier eingehen will: das Problem der Übertragung. Eva Horn spricht in bezug auf Schwärme nicht von ‚Phänomenen‘, so wie man z.B. von ‚Dingen‘ spricht. Da Schwärme nicht als ‚Dinge‘ in Erscheinung treten, was eine gewisse anatomische Selbständigkeit und Abgegrenztheit gegenüber der Umwelt bedeuten würde, sondern sich aus Kontexten heraus-‚kristallisieren‘, wie Eis sich aus einem gefrierenden See herauskristallisiert – eine gespenstergleiche, körperlose Erscheinungsform –, spricht Eva Horn von verschiedenen „Medien“, in denen und zu denen sich Schwärme ‚verhalten‘. Horn zählt insgesamt drei Medien auf, die in Frage kommen: Wetware (Biologie), Hardware (Computer) und Software (Programme, Bewußtsein) (vgl. Horn 2009, S.10): „In dem Maße, wie sich der Schwarm als Modell von einem ‚Medium‘ (dem biologischen Leben, der sogenannten ‚Wetware‘) zum anderen (z.B. Software) übertragen lässt, sind drei verschiedene Ebenen in der Rede über den Schwarm zu unterscheiden, deren Gesamtheit eigentlich erst die Epistemologie des Schwarms ausmacht.“ (S.13f.)

Bei den „drei verschiedenen Ebenen“ handelt es sich also um die Biologie, die Informationstechnologie und den Menschen. Beide ‚Phänomen‘-Bereiche bzw. ‚Medien‘ müssen in ihrer Differenz im Blick behalten werden, wenn man epistemisch angemessen über Schwärme reden will, – umso mehr als deren Dynamik sich auf allen diesen Ebenen so sehr gleicht und deshalb dazu verführt, diese Ebenen in bezug auf die Schwarmdynamik einfach gleichzusetzen.

Das Problem der „Übertragung“ – nämlich der Beschreibung chaotisch dynamischen Schwarmverhaltens ungeachtet der medialen Differenz in seinem Auftreten – ist deshalb auch ein Problem der Abstraktion: „Voraussetzung einer solchen Übertragbarkeit ist die Abstrahierung des Kollektivs auf ein Modell der Aggregation, unabhängig von der Natur seiner Akteure (Menschen, Tiere, Programme, Kampfeinheiten), von der Form dieses Zusammenkommens (ist es Gruppenbildung, ist es ein kollektives Bewegungsmuster, ist es eine Form von verteilter Kooperation?) und unabhängig von Medium, in dem dieser Prozess stattfindet (Wetware? Hardware? Software?).“ (Horn 2009, S.10f.) – Der informationstechnologische ‚Erfolg‘ dieser Übertragung besteht vor allem in der suggestiven Wirkung der Computersimulationen, mit denen die ‚Algorithmen‘ von Fisch- und Vogelschwärmen in Form von ‚Boids‘ auf dem Monitor sichtbar gemacht werden: „Diese Abstraktion zum Modell ist die epistemische Grundlage der Überzeugungen, die die Konjunktur und die (scheinbare) Evidenz des Schwarms ausmachen.“

Eva Horn beschreibt nun zwei verschiedene Achsen der Übertragung: zwischen Leben und Information (vgl. Horn 2009, S.20ff.) und zwischen Tier und Mensch (vgl. Horn 2009, S.22-26): „Diese Übertragung findet über zwei Achsen statt: einer anthropologischen in Form einer Übertragung zwischen Mensch und Tier; und einer technologischen in Form einer Übertragung von lebendigen Systemen auf technische oder informatische.“ (Horn 2009, S.15) – Die anthropologische Übertragung zwischen Mensch und Tier hat schon eine längere Tradition, da solche Vergleiche schon immer zur Selbstverständigung des Menschen über sich und seine Natur beitrugen: „In diesem Blick sind die einzelnen Arten Charaktere, Verkörperungen bestimmter Eigenschaften und Eigenarten, die einander im Kanon einer Tugend- und Klugheitslehre gegenübergestellt werden können.“ (Horn 2009, S.22) – Hier werden die Tiere im Dienste der menschlichen Selbstvergewisserung anthropomorphisiert.

Bei der im Kern kybernetischen Beschreibung von Schwarmverhalten werden nun die Tiere nicht mehr anthropomorphisiert, sondern mit Maschinen verglichen, und über den Umweg über diesen Vergleich von Tier und Maschine wird die Maschine auch zum Modell des Menschen: „Der Biologe von Frisch ... versucht, den anthropologischen Kurzschluss zu meiden, wenn er das Kommunikationsverhalten der Bienen als kybernetische Selbststeuerung entschlüsselt. Was er damit entwirft, ist allerdings ein Begriff des ‚Lernens‘ und der Steuerung, der nicht mehr den Menschen, sondern die Maschine zum Paradigma solcher Selbststeuerung macht.“ (Horn 2009, S.25) – Am Ende dieser von mir hier sehr verkürzten Darstellung der Übertragungswege zwischen Biologie, Mensch und Maschine steht eine informationstechnologische Formel, in der das „Leben nie etwas anderes war als Information“. (Vgl. Horn 2009, S.20)

Mir stellen sich nach Lektüre von Horns Einleitung zwei Rückfragen an die Komplexitätsforschung: die Frage zur verbleibenden epistemologischen Bedeutung des ‚Dings‘ und die Frage nach der Bedeutung einer kritischen Metaphorologie, wie sie Schrott und Jacobs mit ihrem Buch „Gehirn und Gedicht“ vorgelegt haben. Die Frage nach der epistemologischen Bedeutung des Dings beinhaltet die Plessnersche Frage nach dem ‚Körperleib‘. Darauf werde ich in den folgenden Posts zu Eugene Thacker noch eingehen.

Die Frage nach der Bedeutung einer kritischen Metaphorologie beinhaltet eine Schärfung des Blicks für den Unterschied zwischen einer metaphorischen Übertragung im eigentlichen Sinne, also zwischen Tier und Mensch und zwischen Leben und Information, und einer bloßen Hintereinanderreihung von Netzwerkstrukturen. Mit dem Letzteren meine ich eine Art Hintereinanderschaltung oder auch Parallelschaltung, in der sich z.B. eine Virusepidemie ausbreitet, indem sie sich der institutionellen und technologischen Infrastruktur des Menschen ‚bedient‘. (Vgl. Thacker 2009, S.30, 46, 65) Obwohl sich nämlich das biologische Netzwerk des SARS-Virus des menschlichen Netzwerkes von Institutionen (Schulen, Flughäfen etc.) und Transportwegen (Flugzeuge, Eisenbahnen etc.) ‚bedient‘, ergibt sich daraus noch keine mediale Entdifferenzierung im Sinne eines neuen Schwarmphänomens, das sich aus Viren, Gebäuden und Transporttechnologien zusammensetzt.

Die verschiedenen ‚Netzwerke‘ greifen also zwar ineinander und unterstützen die Ausbreitung eines spezifischen Schwarmphänomens wie dem SARS-Virus, aber aus ihnen ergibt sich kein neues Ganzes, wie bei einer Metapher im Sinne von Schrott. In gewisser Weise ist hier das Wort ‚Übertragung‘, als Übertragung des SARS-Virus auf Menschen via institutioneller und infrastruktureller Drehscheiben, nur im ‚übertragenen‘ Sinne verwendbar. Um so problematischer ist eben deshalb die von Horn beschriebene Übertragung informationstheoretischer Begriffe auf die Biologie und auf den Menschen. Dem sollte eine kritische Metaphorologie Einhalt gebieten.

Download

Freitag, 5. August 2011

Len Fisher, Schwarmintelligenz. Wie einfache Regeln Großes möglich machen, Frankfurt a.M. 2010 (2009)

1. Schwarmintelligenz als universales und skalenfreies Phänomen
2. Mustererkennung und Gestaltwahrnehmung
3. Mehrheitsentscheidungen und individuelles Urteil
4. Gesellschaftsfähigkeit
5. Bildung und Netzwerk

Ich habe den Eindruck, daß der Begriff der Schwarmintelligenz und der Begriff des Netzwerks oft synonym benutzt werden: Netzwerk = Schwarmintelligenz, Schwarmintelligenz = Netzwerk. Aber es gibt doch bezeichnende Unterschiede zwischen beidem. Bei der Schwarmintelligenz haben wir eine unmittelbare Präsenz aller Mitglieder des Schwarms, während Netzwerke global unterschiedlichste Orte verbinden, so daß die Mitglieder eines Netzwerks sich nicht am selben Ort aufhalten müssen. Die Mitglieder eines Schwarms interagieren jederzeit ohne Verzögerung, während Netzwerke ein Minimum an Beziehungsarbeit erfordern. Und zuguterletzt: Nichtmenschliche Lebensformen nutzen die Schwarmintelligenz viel effektiver als Menschen ihre Netzwerke.

Diese Unterschiede werden immer wieder durch unreflektierte Vergleiche und Gleichsetzungen zwischen im engeren Sinne biologischen Prozessen und wiederum im engeren Sinne sozialen Prozessen verwischt. So wird z.B. gern der Prozeß der Informationsverbreitung mit einer Virusepidemie verglichen. (Vgl. meinen Post vom 04.03.2011) Auch Fisher zieht diesen Vergleich: „Krankheiten und Informationen unterscheiden sich gar nicht so sehr voneinander, wenn wir uns vorstellen, dass wir uns mit einer Information infizieren und unsererseits andere anstecken, wenn wir sie weitergeben.“ (Fisher 2010, S.137)

Dieser Vergleich ist in gewisser Weise naheliegend, und er zeigt auch die Universalität des Phänomens der Schwarmintelligenz. Aber dennoch funktionieren menschliche Netzwerke bei der Verbreitung von Informationen in einem entscheidenden Sinne anders als Virusepidemien, wie an folgendem Zitat deutlich wird: „‚Um eine Geschlechtskrankheit über ein Netzwerk sexueller Beziehungen weiterzugeben, müssen die Betroffenen weder wissen, dass sie krank sind, noch die Absicht haben, andere anzustecken; es reicht schon, wenn sie miteinander vernetzt sind ... Wer jedoch versucht, sein Netzwerk zu nutzen, muss aktiv Beziehungsketten ausfindig machen‘ ... .“ (Fisher 2011, S.126 (Zitat im Zitat: Fisher zitiert Duncan Watts))

Verwenden wir z.B. Ameisenalgorithmen, so finden die Teilchen in einer Computersimulation im Handumdrehen die richtige Lösung für jede Frage, auf die es eine eindeutige Lösung gibt. Der kürzeste Weg zur Lösung führt anscheinend immer um höchstens sechs ‚Ecken‘ herum, wie in einem menschlichen Beziehungsnetzwerk, wenn wir einen Brief an eine uns unbekannte Adresse schicken wollen und uns dabei auf die Hilfe unserer Freunde und Verwandten verlassen.

Warum fällt es uns in menschlichen Netzwerken so viel schwerer, diese sechs Ecken ausfindig zu machen? Aus dem einfachen Grund, „weil wir immer wieder in Sackgassen landen und neue Wege ausprobieren müssen.“ (Fisher 2010, S.127) – Anders als die Schweinegrippe, die diese sechs Ecken problemlos ausfindig macht und alle möglichen Adressen in unübertreffbarer Effizienz erreicht, finden wir uns durch dieses Labyrinth nur mühsam hindurch, – wenn überhaupt.

Ein weiterer nicht zu unterschätzender Unterschied zwischen Schwarmintelligenz und Netzwerken besteht in der Motivation der sozialen ‚Viren‘. In einem Experiment von Milgram, in dem Briefe über Netzwerke an unbekannte Adressen verschickt wurden, „kamen die meisten Briefe nie beim Empfänger an, weil irgendjemand unterwegs keine Lust mehr hatte, ihn weiterzuschicken.“ (Fisher 2010, S.127) – Das heißt nicht mehr und nicht weniger, als daß die Mitglieder eines menschlichen Netzwerkes im Unterschied zu Viren motiviert werden müssen, um sich an der Verschickung der Briefe zu beteiligen. Das ist ein prinzipieller Unterschied zwischen Schwarmintelligenz und menschlichen Netzwerken, der eben die Beziehungsarbeit für menschliche Netzwerke so wichtig macht. Das macht eigentlich jede weitergehende Gleichsetzung zwischen Schwarmintelligenz und Netzwerken von vornherein problematisch.

Es gibt aber nicht nur einen Unterschied zwischen Schwarmintelligenz und Netzwerken, sondern auch zwischen ‚Netzwerken‘ und ‚Netzwerken‘. Denn hier wiederholt sich nochmal der Unterschied zwischen unmittelbarer Präsenz und globaler Verteilung. So haben wir auf der einen Seite die Netzwerke der Verwandten und persönlichen Freunde und auf der anderen Seite, global verteilt, beispielsweise Facebook. Und auch hier wird gern über diesen entscheidenden Unterschied hinweggesehen und Netzwerk mit Netzwerk gleichgesetzt.

Wenn ich z.B. sehe, wie über Netzwerke geredet wird, habe ich sogar den Eindruck, daß tatsächlich Networking an die Stelle des altehrwürdigen Humboldtschen Bildungsbegriffs getreten ist. Humboldt bringt in seiner Ideenschrift über die Grenzen der Wirksamkeit des Staates (1792) die Notwendigkeit von Bildung in Verbindung mit dem Phänomen der gesellschaftlichen Arbeitsteilung: weder für die leiblichen Bedürfnisse noch für die moralischen Bedürfnisse ist der einzelne Mensch noch allein zuständig. Er muß sich in allen Bereichen der Selbsterhaltung auf die Dienstleistungen anderer verlassen, wie z.B. Bauern, Handwerker, Zwischenhändler, – und nicht zuletzt die Kirchen und der Staat, die ihm sagen, was richtig und falsch ist und ihn so des Rechts berauben, seinen eigenen Verstand zu gebrauchen. Das Ergebnis dieser allgegenwärtigen Fremdbestimmung, das Humboldt vor Augen hat, ist ein Mensch, der nicht nur nicht fähig, sondern auch nicht mehr willens ist, die Verantwortung für sein eigenes Leben zu übernehmen.

Humboldt sah nun voraus, daß sich dieser Zustand mit dem weiteren Fortschritt von Technologie und Infrastruktur immer weiter verschärfen würde und eine totale Entmündigung des einzelnen Menschen drohte. Bildung sollte dem entgegenwirken. Mit ‚Bildung‘ beschrieb Humboldt ein Konzept ästhetischer Sensibilisierung, die es dem Menschen ermöglicht, trotz der zunehmenden Einschränkung individueller Handlungsfreiheit Freiheitsräume zu finden und sie sich auch zu schaffen, die es ihm erlauben, sich als Individuum zu verwirklichen. Der äußeren Verarmung der Welt (das Verschwinden von Naturräumen und ihr gleichzeitiges Ersetzen durch menschliche Infrastruktur) sollte so die innere Bereicherung des Menschen, der äußeren Welt der gesellschaftlichen Arbeitsteilung eine innere Welt der ganzheitlichen (proportionierlichen) Selbstverwirklichung entgegengesetzt werden.

Ganz ähnliche Funktionen schreibt nun Fisher dem Netzwerk zu, wenn er die gesellschaftliche Arbeitsteilung beschreibt: „Man kann sich zum Beispiel eine Stadt als ein extrem komplexes Netzwerk aus den lokalen Interaktionen ihrer Bürger vorstellen. Einige sind beispielsweise Ladenbesitzer, andere reinigen die Straßen oder arbeiten in Büros und essen in einer Imbissbude um die Ecke zu Mittag. Wieder andere beliefern die Imbissbude, transportieren die Büroangestellten, organisieren die Bereitstellung von Wasser, Strom und Kanalisation, nähen Kleider oder erziehen Kinder. Niemand steuert diese Aktivitäten.“ (Fisher 2010, S.121)

Fisher beschreibt die Arbeitsteilung als Netzwerk und dieses wiederum in einer Weise, daß man sich – von der Futterbeschaffung über den Nestbau bis zur Kindererziehung – an die Schwarmintelligenz eines Ameisenstaates erinnert fühlt. Damit wird das Entfremdungsphänomen ‚Arbeitsteilung‘ umgedeutet zu einer effizienten Netzwerkstruktur, die uns nicht etwa von dem, was die anderen tun, ausschließt, weil wir es nicht mehr selbst tun können (Humboldt), sondern die uns daran beteiligt, weil wir ja dazugehören. Und der neue Bildungsauftrag besteht nun nicht mehr darin, an sich selbst und seiner individuellen Selbstverwirklichung, sondern am Ausbau und Erhalt seines Netzwerks zu arbeiten. Robinson Crusoe hätte heutzutage auf seiner Insel vor allem das Problem, wie er sich in das nächstgelegene Netzwerk einlinken kann. Denn von dem untergangenen Schiff, von dem sich dieser moderne Robinson gerettet hat, spült ihm das Meer nicht etwa Kisten mit Werkzeugen und Saatgut an Land, sondern in Plastikfolien eingeschweißte Laptops und iPads.

‚Netzwerke‘ nannte man früher ‚Seilschaften‘, was noch immer einen negativen Beigeschmack hat. Netzwerke und Networking haben aber ganz und gar keinen negativen Beigeschmack mehr. An den Universitäten hat man das Humboldtsche Bildungskonzept längst abgeschafft. Bei den Schulen hält es sich überraschenderweise noch hartnäckig. Wenn sich die Schüler stattdessen lieber im Facebook bewegen, zeigen sie aber, daß sie längst verstanden haben, daß es auf persönliches Wissen und persönliche Kompetenzen gar nicht mehr ankommt. Es reicht, jemanden zu kennen, der jemanden kennt; es reicht, an seinem persönlichen Netzwerk zu arbeiten.

Dabei verschwindet aber der angesprochene Unterschied zwischen Netzwerken, wie sie etwa eine Familie bildet (unmittelbare Präsenz), und eben Facebook (unpersönliche, global Präsenz), was sich besonders drastisch daran zeigt, daß Jugendliche schon Selbstmord begingen, weil sie in Facebook gemobbt worden waren. Humboldts Antwort darauf bleibt also aktuell: umso notwendiger ist Bildung.

Download

Donnerstag, 4. August 2011

Len Fisher, Schwarmintelligenz. Wie einfache Regeln Großes möglich machen, Frankfurt a.M. 2010 (2009)

1. Schwarmintelligenz als universales und skalenfreies Phänomen
2. Mustererkennung und Gestaltwahrnehmung
3. Mehrheitsentscheidungen und individuelles Urteil
4. Gesellschaftsfähigkeit
5. Bildung und Netzwerk

Fisher spricht an einer Stelle von der „kollektiven Intelligenz in der menschlichen Gesellschaft“ (Fisher 2010, S.19). Dabei stellt sich die Frage, inwiefern Schwarmintelligenz auch kollektive Intelligenz ist? Da Schwarmintelligenz keine zentralisierte Intelligenzform ist, ist sie auch kein Bewußtsein. Mit Plessner gehe ich davon aus, daß zum Bewußtsein Positionalität gehört: zentrische Positionalität bei Tieren und exzentrische Positionalität beim Menschen. (Vgl. meinen Post vom 24.10.2010) Weil Schwarmintelligenz also kein Bewußtsein ist, kann sie auch kein Unterbewußtsein haben. Kollektive Intelligenz hingegen erinnert an das kollektive Gedächtnis und hat deshalb Anteil an dem Unterbewußtsein einer Gesellschaft, die in den Individuen ihre zentralisierten Intelligenzformen hat. Nur über diese Individuen – und über das kulturelle Gedächtnis – kann sie auch ein Unterbewußtsein haben. (Vgl. meine Posts zu Assmann vom 04.02.2011 bis zum 19.02.2011)

Fisher geht auf den Zusammenhang von Schwarmintelligenz (Biologie) und kollektiver Intelligenz (Gesellschaft) nicht weiter ein. Ob er überhaupt beim Begriff der kollektiven Intelligenz in diese Richtung gedacht hat, ist eher zweifelhaft. Mir gibt er damit allerdings damit die Gelegenheit, die Frage nach der ‚Gesellschaftsfähigkeit‘ der Schwarmintelligenz aufzuwerfen.

Wenn es um Schwarmintelligenz beim Menschen geht, dann wird entweder sein Verhalten bei Massenpaniken angesprochen oder die Gruppenintelligenz bei Entscheidungsprozessen oder bestimmte soziale Organisationsformen wie z.B. Unternehmen oder Internetplattformen wie Amazon oder Wikipedia (vgl. Fisher 2010, S.114-117). Bei diesen sozialen Organisationsformen bewegen wir uns aber nun mitten im engeren Bereich gesellschaftlicher Strukturen. Kann die Schwarmintelligenz uns hier neue Aufschlüsse über das Verhalten von Individuen geben?

Das Wenige, das Fisher dazu beiträgt, besteht lediglich in dem Hinweis darauf, daß „die Gesellschaft mehr ist als die Summe ihrer Teile“ und wir uns deshalb „vor Situationen in Acht nehmen (müssen), in denen die Komplexität die einfachen Regeln außer Kraft setzt. Einfach ist schön und gut, aber die Komplexität geht vor.“ (Fischer 2010,.S.21) – Das kann man vielleicht als Hinweis darauf nehmen, daß die Schwarmintelligenz mit ihren drei bis vier Regeln der Anziehung, Abstoßung, Ausrichtung und der Zielorientierung zu einfach gestrickt ist, um das komplexe Gebilde der menschlichen Gesellschaft erklären zu können. Dem würde ich mich ohne weiteres anschließen wollen, wobei man aber sicher daran guttut, nicht zu vergessen, daß die komplexe Ordnung einer Gesellschaft durchaus ihre eigene Dynamik hat, die jederzeit in so etwas wie Schwarm-‚Intelligenz‘ umschlagen könnte, – wobei man hier wiedermal den Begriff der Intelligenz in Anführungszeichen setzen muß.

Die Gefahr, die dem Einzelnen von der Schwarmintelligenz droht, besteht eben im Wegfallen der gesellschaftlichen Schutzmechanismen, die Plessner in „Grenzen der Gemeinschaft“ beschrieben hat. (Vgl. meine Post vom 14.11.2010 bis 17.11.2010) – Fisher deutet diesen Zusammenhang an, wenn er von der Gefahr spricht, daß sich die Individuen der Gemeinschaft aufopfern: „Wenn man diese Vorstellung auf die gesamte Menschheit übertragen würde, wäre das Ergebnis der Schönen neuen Welt Aldous Huxleys sehr nahe: ... Glücklicherweise sind solche Opfer nicht nötig. Untersuchungen der Schwarmintelligenz zeigen, dass das Schwarmverhalten den Verlust der Individualität nicht voraussetzt. Stattdessen lernen die Angehörigen des Schwarms mit den Artgenossen in ihrer unmittelbaren Umgebung angemessen zu interagieren. Wenn wir uns richtig verhalten, entsteht die Schwarmintelligenz ganz von selbst.“ (Fisher 2010, S.191)

Da Fisher keinen eigenen Begriff von Gesellschaft hat, kann er von ihr nur im begrifflichen Rahmen der Schwarmintelligenz sprechen. So gesehen befindet er sich hier im Einklang mit Plessner, wenn er fordert, daß die „Angehörigen des Schwarms mit den Artgenossen in ihrer unmittelbaren Umgebung angemessen () interagieren“. Indem er auf diese Weise die Notwendigkeit ‚richtigen Verhaltens‘ einklagt, aus der die Schwarmintelligenz „ganz von selbst“ entstehen kann, bewegt er sich auf der Ebene gesellschaftlicher Strukturen, wie sie Plessner beschrieben hat und die das Individuum vor der Selbstpreisgabe an das Große Ganze einer schrankenlosen Gemeinschaftlichkeit schützen.

Trotz Fishers expliziter Stellungnahme zur Gesellschaft als ‚Schwarmintelligenz‘ möchte ich ihn also doch für das Gegenteil in Anspruch nehmen: Schwarmintelligenz ist nicht gesellschaftsfähig!

Download

Len Fisher, Schwarmintelligenz. Wie einfache Regeln Großes möglich machen, Frankfurt a.M. 2010 (2009)

1. Schwarmintelligenz als universales und skalenfreies Phänomen
2. Mustererkennung und Gestaltwahrnehmung
3. Mehrheitsentscheidungen und individuelles Urteil
4. Gesellschaftsfähigkeit
5. Bildung und Netzwerk

Nach Fisher kann das Verhalten Einzelner „unverhältnismäßig große Auswirkungen auf die anderen und die Gruppe als Ganze haben“. (Vgl. Fisher 2010, S.18f.) Diese Aussage kann man z.B. auf die heimlichen Anführer in Bienenschwärmen auf der Suche nach einer neuen Nisthöhle beziehen, denen der Schwarm folgt, ohne daß sie in irgendeiner Weise als Anführer in Erscheinung treten. Aber die Rolle des Einzelnen, seine Fähigkeit, sich seines eigenen Verstandes unabhängig von der Meinung der Anderen zu bedienen, ist auch bei Entscheidungsprozessen von Gruppen unverzichtbar (vgl. Fisher 2010, S.81, 86, 91): „Die Meinungsvielfalt ist eine Voraussetzung der Gruppenintelligenz.“ (Fisher 2010, S.81)

Wenn ich schon bei dem Begriff der ‚Schwarmintelligenz‘ wegen des damit verbundenen Intelligenzbegriffs meine Schwierigkeiten hatte (vgl. meinen Post vom 02.08.2011), so vollends bei dem Begriff der „Gruppenintelligenz“. Ich halte es hier entschieden mit Terry Pratchetts Formel, daß die Intelligenz einer Gruppe gleich der Intelligenz des Dümmsten in der Gruppe ist, geteilt durch die Zahl der Gruppenmitglieder. Allerdings muß ich nun einschränkend hinzufügen, daß es sich bei Pratchetts Formel um Gruppen handelt, die die Meinungsvielfalt der Individuen in Richtung auf eine Gruppenmeinung reduzieren. Fisher spricht in diesem Zusammenhang von der „Falle der Gruppendenke“. (Vgl. Fisher 2010, S.20) Wird die Meinungsvielfalt in der Gruppe hingegen respektiert, so kommt es zu einem erstaunlichen Phänomen, daß man tatsächlich kaum anders kann, als von Gruppenintelligenz zu sprechen.

Wenn es darum geht, zu schätzen, wie viele Gummibärchen sich in einem Glas befinden, wird ein Einzelner nur selten und eher zufällig auf die richtige Zahl kommen. (Vgl. Fisher 2010, S.85f.) Wenn aber eine Gruppe von Leuten schätzt, wie viele Gummibärchen sich in dem Glas befinden, so wird der Durchschnitt (oder der Mittelwert, was nicht ganz dasselbe ist) die richtige Zahl immer ziemlich genau treffen. Und das gilt nicht nur für Gummibärchen, sondern für fast alle Probleme und Fragen, auf die wir Antworten zu finden versuchen! Die Mitglieder der Gruppe brauchen noch nicht mal Experten für die entsprechenden Fragen zu sein. Es reicht, wenn sie sich nur ungefähr mit dem Thema auskennen.

Die wichtigste Voraussetzung ist dabei die Unabhängigkeit der einzelnen Mitglieder der Gruppe. Sobald ein Meinungsführer versucht, die anderen zu seiner eigenen Meinung zu überreden, wird die Schätzung falsch! (Vgl. Fisher 2010, S.86) Zwei weitere Voraussetzungen dürfen hier nicht unerwähnt bleiben: auf die gestellte Frage muß es eine „definitive Antwort“ geben, und alle „Angehörigen der Gruppe müssen dieselbe Frage beantworten“ (vgl. Fisher 2010, S.82), d.h. sie müssen die Frage verstanden haben! Wenn diese Voraussetzungen stimmen, „erzielt die Gruppe als Ganze bessere Ergebnisse als die Mehrheit ihrer Mitglieder“. (Vgl. Fisher 2010, S.82)

So erfreulich diese Aufwertung der individuellen Meinung und damit der Urteilskraft ist, führt das nun aber zu einem paradoxen Effekt. Wenn eine Entscheidung getroffen werden soll, egal ob es dabei um die Zahl von Gummibärchen geht oder welche Partei bei einer demokratischen Wahl die richtigen Antworten auf die richtigen Probleme hat, darf in der Gruppe nicht darüber diskutiert werden, wie abgestimmt werden soll. Diskussionen sind, wenn es um die Gruppenintelligenz geht, kontraproduktiv! Das hat etwas mit Condorcets Jury-Theorem zu tun. (Vgl. Fisher 2010, S.92f.) Damit die zwölf Geschworenen in einem Prozeß die richtige Antwort finden, ob der Angeklagte schuldig ist oder nicht, darf diese Entscheidung nicht einstimmig ausfallen, weil sie dann nämlich mit großer Wahrscheinlichkeit falsch ist! Einstimmigkeit setzt immer „Gruppenzwang“ (Fisher 2010, S.93), also Gruppendenke voraus.

Wahrscheinlich kann man dieses Problem nur so lösen, daß man Diskussion und Entscheidung zeitlich und räumlich trennt, wie das z.B. bei demokratischen Wahlen der Fall ist. Es gibt einen Wahlkampf, in der die Parteien mit allen manipulativen Mitteln versuchen, die Meinung der Wähler zu beeinflussen. Am Tag der Wahl aber darf es keinen Wahlkampf mehr geben, und jeder Wähler hat es alleine für sich in seiner Wahlkabine zu entscheiden, wo er sein Kreuzchen macht.

Diskussionen haben vor allem immer dort ihre Berechtigung, wo es darum geht, Meinungen zu klären und Vorurteile abzubauen. (Vgl. Fisher 2010, S.93) Dabei spielen dann auch wieder Experten eine wichtige Rolle. Denn wie Fisher festhält: „Die Gruppe ist mit ihren Schätzungen nur besser als die Mehrzahl ihrer Angehörigen. Sie ist nicht unbedingt besser als alle.“ (Fisher 2010, S.88) – Experten können also den Gruppenmitgliedern helfen, sich über ihre eigenen Meinungen aufzuklären. Das wird niemals zu einer Reduktion der Meinungsvielfalt führen, weil diese von ganz anderen Dingen abhängt als von der Dummheit der Gruppenmitglieder. Sprich: wenn die Gruppenmitglieder in der Diskussion dazulernen, also durch die Diskussion klüger werden, ist das Ergebnis bestimmt nicht, daß jetzt alle plötzlich einer Meinung sind. Wäre das der Fall, hätten wir es eher mit „Gruppendenke“ zu tun.

Download

Mittwoch, 3. August 2011

Len Fisher, Schwarmintelligenz. Wie einfache Regeln Großes möglich machen, Frankfurt a.M. 2010 (2009)

1. Schwarmintelligenz als universales und skalenfreies Phänomen
2. Mustererkennung und Gestaltwahrnehmung
3. Mehrheitsentscheidungen und individuelles Urteil
4. Gesellschaftsfähigkeit
5. Bildung und Netzwerk

In diesem Post wird es nochmal um die Problematik einer Verhältnisbestimmung von Gestaltwahrnehmung und Statistik gehen. Ich hatte in meinen Post vom 19.07.2011 darauf Wert gelegt, daß statistische Berechnungen nur artifizielle Methoden seien – besser wäre es, von ‚Abkürzungen‘ zu sprechen – und daß es sich bei ihnen keinesfalls um genuine, fundamentale Bewußtseinsprozesse handelt. Wenn ich hier von ‚Abkürzungen‘ spreche, dann ist damit die Umgehung der Gestaltwahrnehmung gemeint, die ich als genuinen Bewußtseinsprozeß verstehe.

In meinem Post vom 24.07.2011 habe ich die Differenz zwischen Statistik und Gestaltwahrnehmung auch daran festgemacht, daß Statistik eine umwegige, vermittelte Prozedur darstellt, während Gestaltwahrnehmung vor allem durch Unmittelbarkeit gekennzeichnet ist. Die Überlegenheit der Gestaltwahrnehmung, hatte ich geschrieben, liege darin, daß die Gestaltwahrnehmung überkomplexe Sinnzusammenhänge erfassen kann, an denen statistische Formeln scheitern müßten. In diesem Post möchte ich diese Thesen gerne differenzieren. Dabei bewege ich mich aber in einem höchst spekulativen Feld, und letztlich geht es mir nur darum, einige heuristische Orientierungspunkte zu setzen, mit deren Hilfe eine vage Grenzlinie zwischen artifiziellen Prozeduren der Musterkennung und der Gestaltwahrnehmung sichtbar werden könnte.

Len Fisher beschreibt, wie aus der Interaktion vieler Individuen in der Gruppe oder im Schwarm Muster entstehen: „Systeme am Rande des Chaos, egal ob Schwärme von Tieren oder menschliche Gesellschaften, haben ebenfalls eine dynamische Ordnung, die allerdings etwas stabiler ist als die Strömungen in einer Kaffeetasse. Die Ordnung ergibt sich aus Regeln für das Zusammenspiel von Individuen, aus denen wiederum dynamische Muster in großem Maßstab entstehen. Diese prägen die Gesellschaft als Ganze und wirken auf ihre Angehörigen zurück.“ (Fischer 2010, S.17) – Diese Muster ergeben sich „zwangsläufig“: „Wenn sich beispielsweise sechs Personen auf einer Party treffen, dann muss es zwangsläufig eine Verbindung zwischen drei von ihnen geben – entweder eine positive Verbindung, weil sie sich kennen, oder eine negative Verbindung, weil sie sich nicht kennen.“ (Fischer 2010, S.177)

Mit dem „Satz von Ramsey“ kann man nun mathematisch berechnen, bei welcher Größenordnung einer Party sich bestimmte Muster ergeben müssen, so daß solche ‚zwangsläufigen‘ Muster auch als ‚zufällige‘ Muster gekennzeichnet werden können. Wenn sich also bei sechs Personen eine gemeinsame Verbindung zwischen dreien von ihnen ergibt, z.B. daß sie sich kennen oder auch im Gegenteil, daß sie sich nicht kennen, hat dieses Muster keinen Erkenntniswert. Sobald sich aber ein Muster zwischen vier Personen ergibt, ist dieses Muster nicht mehr ‚zwangsläufig‘ bzw. ‚zufällig‘, sondern es muß irgendeinen Grund dafür geben, so daß dieses Muster jetzt einen Erkenntniswert hat. Mit Ramseys Formel kann man also berechnen, welche Muster bloß zufällig und welche Muster bedeutungsvoll sind.

Ein anderes Beispiel für eine mathematische Prozedur ist das Benfordsche Gesetz. Mit Hilfe der von Simon Newcomb entwickelten und nach Frank Benford benannten Formel kann man berechnen, ob die Zahlen in einer Bilanz oder in der statistischen Auswertung in einer Doktorarbeit gefälscht sind. Newcomb hatte entdeckt, daß in einer größeren Menge von mehrstelligen Zahlen die Verteilung der Ziffern unregelmäßiger ist, als man nach dem Zufallsprinzip vermuten sollte. So steht z.B. die 1 häufiger am Anfang einer mehrstelligen Zahl als die 9, und zwar im Verhältnis von 30,1 % zu 4,6 %. Diese Prozentzahlen sind für jede Ziffer zwischen 1 und 9 verschieden!

Fälscht also jemand eine Bilanz, indem er die verschiedenen Ziffern in mehrstelligen Zahlen nach dem Zufallsprinzip verteilt, kann man mithilfe des Benfordschen Gesetzes diese Fälschung einwandfrei nachweisen. Interessant ist nun, was Fisher zu dieser Entdeckung schreibt: „Heute wird das Benford’sche Gesetz in vielen Bereichen eingesetzt, beispielsweise um Fälschungen in medizinischen Untersuchungsdaten ausfindig zu machen und Projektanträge auf falsche Angaben zu prüfen. All diese Anwendungsmöglichkeiten ergaben sich nur, weil Newcomb und Benford in einer scheinbar zufälligen Menge von Zahlen Muster erkannten und weil sie den Mut hatten, ihren eigenen Augen zu trauen.“ (Fisher 2010, S.175)

Hier haben wir einen ersten Beleg für meine Eingangsthese, daß die Gestaltwahrnehmung ein grundlegender Bewußtseinsprozeß ist und daß die Statistik als eine artifizielle Prozedur nur auf dieser Basis funktionieren kann. Newcomb mußte sozusagen seinen eigenen Augen trauen, als er entdeckte, daß die Ziffernverteilung nicht zufällig ist. Entgegen aller Wahrscheinlichkeit hatte er in der Ziffernverteilung ein nichtzufälliges Muster erkannt, und erst auf dieser Basis konnte er eine Methode entwickeln, die dieses Muster in allen denkbaren Ziffernverteilungen entweder nachweist – dann haben wir es mit ‚realen‘ Zahlenverhältnissen zu tun – oder eben nicht – dann haben wir es mit gefälschten Zahlenverhältnissen zu tun.

Können wir also anhand der Entdeckung des Benfordschen Gesetzes sehen, wie zuerst die Gestaltwahrnehmung kommt („den eigenen Augen trauen“) und dann der Algorithmus für statistische Mustererkennung, so können wir am Beispiel des Satzes von Ramsey sehen, wo die Grenze statistischer Mustererkennung liegt. Die Reichweite dieses Satzes ist nämlich nicht sehr groß. Man kann inzwischen berechnen, wie groß eine Party sein muß, damit ein zwangsläufiges Muster zwischen vier Personen entsteht. Eine solche Party umfaßt 18 Gäste. Aber es gibt immer noch keine Lösung für die Frage, wie groß eine Party sein muß, damit sich irgendein zwangsläufiges Muster zwischen fünf Personen ergibt.

An dieser Stelle möchte ich meinen, daß wir mit Hilfe unserer Gestaltwahrnehmung durchaus jederzeit dazu in der Lage sind, jederzeit in allen möglichen Partys Muster zu erkennen und auch intuitiv einzuschätzen, wie wahrscheinlich diese Muster sind, also ob sie irgendwie bedeutungsvoll sind oder nicht. Nehmen wir z.B. unsere Fähigkeit, in Wolken Gestalten zu erkennen: Fisher bringt ein schönes Beispiel aus einem Peanutscomic, in dem Lucy Linus und Charlie Brown fragt, was sie in den Wolken am Himmel erkennen können. Linus spult ein ganzes Programm kulturell hochstehender Vergleiche mit Landkarten, Profilen historischer Persönlichkeiten und legendären Szenen der Religionsgeschichte ab, woraufhin Charlie kleinlaut zugeben muß, er habe eigentlich nur „Entchen“ und „Pferdchen“ gesehen. (Vgl. Fisher 2010, S.169f.)

Diese ‚Muster‘ in den Wolken sind selbstverständlich nicht ‚valide‘ oder ‚zwangsläufig‘. Ich frage mich aber trotzdem, ob die Fähigkeit, in Wolken ‚Muster‘ zu erkennen, nicht doch wieder auf die Überlegenheit der Gestalterkennung bzw. -wahrnehmung über die Statistik hindeutet. Es gibt keinen Algorithmus, der Wolkenbildungen simulieren kann, weil sie absolut chaotisch sind; wir sind aber dennoch in der Lage, in Wolken Gestalten zu erkennen – ob es nun nur die fachmännische Unterscheidung von Cirruswolken, Cirrocumuluswolken, Stratocumuluswolken etc. betrifft oder das Erkennen von Gesichtern und ‚Luftschlössern‘. Damit leistet unsere Gestaltwahrnehmung schon mehr als jeder Algorithmus, und wir können sogar mit Hilfe von Bauernweisheiten über das Jahr verteilte Wettervorhersagen machen, die wiederum eine statistische Signifikanz aufweisen.

Worauf ich hinaus will, ist folgendes: Mit Hilfe der Gestaltwahrnehmung sind wir in der Lage komplexe Prozesse und Strukturen ‚auf einen Blick‘ zu erkennen und zu bewerten. Das gilt für jedermann und für Experten, z.B. Meteorologen oder Bauern, natürlich in besonderem Maße. Die Statistik kann uns allenfalls dabei helfen, diese erkannten ‚Muster‘ auszuwerten. Und wir können sogar Algorithmen entwickeln, mit deren Hilfe wir das Entstehen von Mustern simulieren können. Aber alles das bleibt weit hinter dem zurück, was das einfache, unmittelbare Erkennen und Verstehen von Gestalten leistet.

Fisher spricht davon, daß uns für das Erkennen von Gesetzmäßigkeiten und Mustern zwei Wege zur Verfügung stehen: „unsere Fantasie und die Statistik.“ (Fisher 2010, S.169) Als neurophysiologische Voraussetzung nennt Fischer die Identität der Gehirnregionen, mit deren Hilfe wir Gestalten sowohl wahrnehmen als auch erinnern: „ Der Prozess der Assoziation wird unterstützt durch die Tatsache, dass unser Gehirn dieselben Areale benutzt, um Muster wahrzunehmen und sich an früher wahrgenommene Muster zu erinnern.“ (Fischer 2010, S.170) – Wir haben es also bei der Gestaltwahrnehmung mit einer Überblendung von Wahrnehmung und Erinnerung zu tun, und Fisher hält fest: „Die Fantasie spielt dabei eine zentrale Rolle.“ (Fisher 2010, S.170)

Die Phantasie ermöglicht es uns nämlich, „ein wachsendes Repertoire an Beziehungen zwischen optischen Eindrücken und Gegenständen, Geräuschen und Bedeutungen“ herzustellen und – das ist jetzt der wesentlich Punkt – „Abkürzungen zu nehmen“ (vgl. Fisher 2010, S.170): „Wissenschaftler verwenden ähnliche Abkürzungen, auch wenn sie nicht von ‚Fantasie‘ sprechen, sondern von ‚Hypothesen‘. Im Grunde ist es dasselbe: Sie malen sich aus, wie etwas sein könnte, und vergleichen dieses Bild dann mit der Wirklichkeit.“ (Fisher 2010, S.171)

Hier haben wir eine schöne Verhältnisbestimmung von Gestaltwahrnehmung als Bewußtseinsprozeß (Phantasie) und Statistik als Methode (Abkürzung). Bevor etwas ‚verglichen‘ werden kann (z.B. das Bild mit der Wirklichkeit), müssen wir uns von etwas ein ‚Bild‘ gemacht bzw. eine Hypothese aufgestellt haben. D.h. wir müssen eine Gestalt, ein Muster, eine Konstellation etc. wahrnehmen können. Erst dann kommt die Statistik in Form von Abkürzungen zum Zug! Genaugenommen hat Fisher natürlich schon die wissenschaftlichen Hypothesen als ‚Abkürzungen‘ bezeichnet. Wie oben schon angedeutet kann die Grenzlinie zwischen Gestaltwahrnehmung (Phantasie) und Prozeduren bzw. Methoden nur sehr vage gezogen werden, wie ja auch schon Fishers Hinweis auf die große Bedeutung der Phantasie gerade auch bei der wissenschaftlichen Hypothesenbildung andeutet.

Dennoch muß diese Grenzlinie gezogen werden, weil wir uns vor Kurzschlüssen hüten müssen, in denen wir plötzlich Bewußtseinsprozesse (wie z.B. Gestaltwahrnehmung, Lernen, Verstehen, Erfahrung, Denken etc.) mit statistischen Prozeduren gleichsetzen.

Abschließend möchte ich noch kurz auf die Zwangsläufigkeit von Mustern zu sprechen kommen. Wir erkennen sie ja nicht nur in den Wolkengebilden, sondern z.B. auch in historischen Prozessen, die wir dann als ‚Epochen‘ bezeichnen. Wenn ich in früheren Posts zu Plessner und Welzer die Geschichte vor allem als chaotischen Prozeß beschrieben habe, dem keine Gesetze zugrundeliegen, so ist es für die Komplexitätsforschung doch eher selbstverständlich, daß sich gerade in historischen Zusammenhängen auch Muster bzw. Konstellationen ergeben, die wir dann auch als in sich zusammenhängende ‚Epochen‘ beschreiben können. Das gilt natürlich vor allem für die Außenperspektive des Beobachters und nicht für die Teilnehmerperspektive. Solche Muster kann man also historische oder kulturelle Epochen nennen. Ihre ‚Entwicklung‘, also ihr chronologisches Auftreten, dürfte dann allerdings eher eine Frage der Emergenz sein. An dieser Stelle müßte man dann auch die Bedeutung individuellen Handelns neu bewerten, das auf der Schwelle des ‚Umkippens‘ von einer Epoche zur anderen möglicherweise Entscheidendes beizutragen hat. Und dieses läßt sich kaum mit mathematischen Formeln berechnen.

PS (04.08.2011): Wenn ich weiter darüber nachdenke, habe ich den Eindruck, daß es eigentlich doch nicht so verwunderlich ist, daß in Zahlenkombinationen die kleineren Ziffern häufiger am Anfang einer Zahl stehen als die größeren. Diese Zahlenkombinationen bezeichnen ja immer Mengen, und Mengen setzen sich aus Teilen bzw. Elementen zusammen. Diese Mengen stellen also Aggregationen dar. Um eine bestimmte Größenordnung zu erreichen, müssen deshalb die Teile ‚aggregieren‘, d.h. sie müssen sich zu einer Menge zusammenfinden, handele es sich dabei nun um eine Menschenmenge oder um einen Geldbetrag in einer Bilanz. Solche Mengen aggregieren immer aus kleineren Mengen und letztlich aus der Eins. Das ist pure Arithmetik: Jede Reihe beginnt mit einer Eins! Also wird in Mengen bis zu 100 Elementen die 10 (mit der Eins als der ersten Ziffer) wesentlich häufiger vorkommen als die 20 oder die 30 etc. Und in Mengen bis zu 1000 Elementen werden die 10 und die 100 wesentlich häufiger vorkommen als die 20, 30 etc. oder als die 200, 300 etc. Letztlich braucht man also keine große mathematische Raffinesse, um zu erkennen, daß die 1 in Bilanzen oder in anderen statistischen Zusammenhängen am Anfang einer mehrstelligen Zahl häufiger vorkommen muß als die 9.

Download

Dienstag, 2. August 2011

Len Fisher, Schwarmintelligenz. Wie einfache Regeln Großes möglich machen, Frankfurt a.M. 2010 (2009)

1. Schwarmintelligenz als universales und skalenfreies Phänomen
2. Mustererkennung und Gestaltwahrnehmung
3. Mehrheitsentscheidungen und individuelles Urteil
4. Gesellschaftsfähigkeit
5. Bildung und Netzwerk

Wieder einmal begebe ich mich auf das Glatteis eines ‚statistischen‘ Themas, bei dem ich mir als bekennender Laie nur blaue Flecken holen kann. Normalerweise vermeide ich den Intelligenzbegriff, weil ich ihn für viel zu ungenau halte, als daß man damit etwas anfangen könnte. Er suggeriert, etwas auf den Begriff zu bringen, und ist doch nur eine Leerformel, die jeder mit dem Inhalt füllen kann, der ihm gerade behagt. Wir haben es bei der Intelligenz mit einem Kontextbegriff zu tun, was auch seine wörtliche Übersetzung als „zwischen den Zeilen lesen“ nahelegt. Nicht das wörtlich zum Ausdruck Gebrachte, sondern das ungesagt Gebliebene ist es, das wir verstehen müssen, wenn wir uns intelligent verhalten wollen.

Aber eigentlich soll es hier auch gar nicht um den Intelligenzbegriff gehen, sondern um die Schwarmintelligenz. Und da es bei der Schwarmintelligenz wiederum vor allem zum großen Teil um Statistik geht, stellt sich wieder das Problem, welche Rolle die Statistik dabei genau zu spielen hat. Bei der Schwarmintelligenz handelt es sich jedenfalls im Unterschied zur ‚eigentlichen‘, d.h. menschlichen Intelligenz um eine dezentrale Intelligenzform. Sie wird nicht zentral oder individuell gesteuert, sondern sie entsteht spontan (emergent) aufgrund der Kombination einfacher Regeln, die aus dem Verhalten einzelner ‚Individuen‘ – dabei kann es sich um Elemente anorganischer, biologischer oder sozialer Prozesse handeln – über die Interaktion in größeren Gruppen, Mengen oder eben ‚Schwärmen‘ komplexe Muster entstehen lassen. ‚Intelligent‘ werden diese Muster dann, wenn sie über längere Zeit stabil sind und sich an verändernde Umweltbedingungen anpassen können. (Vgl. Fisher 2010, S.18f., 30, 31f., 43, 47f., 121)

Was die komplexen Muster betrifft, entstehen sie spontan aus folgenden drei einfachen Regeln: Abstoßung, Ausrichtung, Anziehung. (Vgl. Fisher 2010, S.40)  Abstoßung und Anziehung führen schon auf atomarer und molekularer Ebene zu komplexen Mustern. (Vgl.Fisher 2010, S.16) Ausrichtung bestimmt darüberhinaus auch das Verhalten biologischer und sozialer Prozesse, also z.B. das Verhalten von Fischschwärmen und Menschenmengen.

Wie fundamental und zugleich universell diese einfachen Regeln sind, zeigt sich z.B. daran, daß sie Newtons Bewegungsgesetzen ähneln: „1. Ein Körper bewegt sich mit konstanter Geschwindigkeit (die auch null sein kann) in dieselbe Richtung, solange keine äußere Kraft auf ihn einwirkt. 2. Sobald eine Kraft auf einen Körper wirkt, wird dieser beschleunigt (das kann eine Veränderung der Geschwindigkeit und/oder der Richtung bedeuten), und zwar direkt proportional zu dieser Kraft und indirekt proportional zu seiner Masse. 3. Jede Reaktion verursacht eine gleich große Gegenreaktion.“ (Fisher 2010, S.64) – Beim ersten Gesetz haben wir es mit der Ausrichtung zu tun, beim zweiten Gesetz mit der Anziehung und beim dritten Gesetz mit der Abstoßung.

Die drei Grundregeln, aus denen die Schwarmintelligenz hervorgeht, gleichen den Newtonschen Bewegungsgesetzen so sehr, daß man die Newtonsche Formel zur Berechnung von Bewegungen sogar anwenden kann, um das Verhalten von Schwärmen zu berechnen. Das belegt noch einmal eindrucksvoll, daß wir es bei der Schwarmintelligenz nicht nur mit einem universalen Phänomen zu tun haben, das auf anorganischer Ebene in atomaren und chemischen Prozessen und dem Verhalten von Flüssigkeiten, auf biologischer Ebene bei Bakterien, Nervenzellen, Insekten, Fischschwärmen und Antilopenherden und auf sozialer Ebene bei Menschenansammlungen vorkommt, sondern auch auf allen Ebenen mit den gleichen mathematischen Formeln berechnet werden kann.

Hinzu kommt, daß diese mathematischen Formeln sogar „skalenfrei“ (Fisher 2010, S.245f.) zu sein scheinen. Sie scheinen unabhängig von der Größe der Menge zu sein. Wichtig scheint vor allem zu sein, daß sich aus welchem Anlaß auch immer eine Gruppe bildet, so daß sich zwischen den einzelnen Elementen der Gruppe ein Muster bilden kann.

Damit sich nun aber aus diesen komplexen Mustern die eigentliche Schwarmintelligenz herausbilden kann, also etwas, das intelligentem individuellem Verhalten ähnelt, bedarf es einer weiteren, also einer vierten Regel: die Zielgerichtetheit. (Vgl. Fisher, S.43) Fischschwärme verfolgen z.B. keine Ziele. Die einzelnen Fische folgen zwar den drei erwähnten Grundregeln der Abstoßung (sie halten Abstand voneinander), Ausrichtung (sie folgen dem vor ihnen schwimmenden Fisch) und der Anziehung (sie entfernen sich nicht von ihren Nachbarn), aber ansonsten wird ihre Fortbewegung vor allem negativ bestimmt durch das Ausweichen vor Hindernissen und Freßfeinden. Positiv kommt vielleicht noch das Suchen nach Futter hinzu. Aber dieses Verhalten bildet – wenn ich das richtig verstanden habe – keine notwendige Regel zum Bilden eines Fischschwarms. Auch Heuschreckenschwärme folgen dem Futter. Aber das ist kein geregeltes, sondern ein chaotisches Verhalten, das sich ganz einfach aus der zunehmenden Verwüstung der leergefressenen Landstriche ergibt, die sie hinter sich zurücklassen.

Wirklich zielgerichtet sind dagegen Bienenschwärme auf dem Weg zu einer neuen Nisthöhle. (Vgl. Fisher 2010, S.43ff.) Und mit dieser Zielgerichtetheit, also als vierter Regel, entsteht die eigentliche Schwarmintelligenz. Mit der Frage, wie die Bienen das machen, daß alle Individuen einem gemeinsamen Ziel folgen, ist die Frage nach der Informationsübermittlung verbunden. Es gibt einige Bienen, die mehr wissen, als die meisten anderen Bienen im Schwarm; d.h. sie kennen den Weg zur Nisthöhle. Sie führen nun aber den Schwarm nicht etwa an, denn dann wären sie Anführer und wir hätten es nicht mehr mit einer dezentralisierten Intelligenzform zu tun, also mit Schwarmintelligenz, sondern mit der Intelligenz von Individuen, nämlich den Anführern.

Die besser informierten Bienen sind vielmehr integraler Bestandteil des Schwarms und fliegen in ihm mit, anstatt ihm vorauszufliegen. (Vgl. Fisher 2010, S.44f.) Das einzige, was die informierten Bienen von der Mehrheit der uninformierten Bienen unterscheidet, ist ihr gradliniger Flug. Die anderen Bienen fliegen im Schwarm durcheinander und hin und her, aber nicht gradlinig in eine Richtung. Durch ihren gradlinigen, auf ein Ziel ausgerichteten Flug bestimmen die wenigen informierten Bienen über die drei Grundregeln der Abstoßung, Ausrichtung und Anziehung das Verhalten der anderen: „Computermodelle zeigen, dass die Führungsrolle dieser informierten Bienen einfach eine Folge ihres Informationsvorsprungs ist. Mit anderen Worten braucht es nur einige wenige anonyme Anführer mit einem klaren Ziel vor Augen und einer klaren Vorstellung davon, wie dieses zu erreichen ist, um den Rest des Schwarms in eine bestimmte Richtung zu lenken – und zwar ohne dass dieser es bemerkt. ... Die zielgerichtete Bewegung des Bienenschwarms ist also ein Beispiel dafür, wie aus lokalen und regelgeleiteten Interaktionen spontan komplexe Verhaltensweisen entstehen.“ (Fisher 2010, S.45)

Einzelne unsichtbare Anführer haben also großen Einfluß auf den Schwarm, was übrigens einiges über die These aussagt, daß der Einzelne angeblich machtlos ist und das Verhalten der Mehrheit nicht beeinflussen kann. (Vgl. meinen Post vom 01.04.2011) – Individuelles Handeln kann nach Fisher jedenfalls „unverhältnismäßig große Auswirkungen auf die anderen und die Gruppe als Ganze haben“. (Vgl. Fisher 2010, S.18f.)

Die Zielgerichtetheit als vierte Regel kann in allem möglichen bestehen und nicht nur darin, daß ein Schwarm eine neue Nisthöhle oder den kürzesten Weg zum Futter sucht, – was wesentlich mehr ist als das, was Heuschreckenschwärme tun, die einfach nur fressen! Bei der Zielgerichtetheit kann es sich auch einfach um ein wissenschaftliches Problem oder um eine einfache Frage handeln, zu der eine Antwort gesucht wird. Für die Algorithmen von Computersimulationen, die Schwarmverhalten imitieren, um solche Probleme zu lösen und Fragen zu beantworten, dienen vor allem Ameisen als Vorbild, weshalb sie auch als „Ameisenalgorithmen“ (Fisher 2010, S.55) bezeichnet werden.

Obwohl Ameisen nicht einmal heimliche Anführer kennen, die das Verhalten des Schwarms orientieren, zeigen sie erstaunlich zielgerichtetes Verhalten, wenn sie z.B. immer den kürzesten Weg zum Futter finden. Dabei folgen sie einfach nur den Pheromonen, die die Ameisen hinterlassen, die am schnellsten von einer Futterstelle zurückkehren. (Vgl. Fisher 2010, S.52) Die Ameisen, die unnötige Umwege zur Futterstelle gelaufen sind, kommen entsprechend später wieder zurück, so daß ihre Pheromonspur weniger stark ist (nur einmal hin, solange sie nicht zurückgekehrt sind) als diejenige der schnelleren Ameisen (einmal hin + einmal zurück).

Wir haben es bei den schnelleren Ameisen also noch nicht einmal mit besser informierten Individuen zu tun, wie bei den Bienen, sondern lediglich mit einem chemischen Stimulus, der die entsprechende Zielgerichtetheit bewirkt.

In Computersimulationen wird nun die Bienenintelligenz und die Ameisenintelligenz kombiniert, indem die „Teilchen“ (Boids (vgl. Fisher, S.41, 56, 58)) Erfahrungen sammeln können über die Wege, die sie im Computerprogramm zurücklegen, so daß sie die zurückgelegten Wege ‚bewerten‘ und mit denen der anderen Teilchen vergleichen können. In solchen Computerprogrammen bilden „virtuelle Ameisen“ „mögliche Lösungen eines Problems“: „Dieser Schwarm von möglichen Lösungen schwirrt dann durch den Raum einer Aufgabe, wobei sich jedes Teilchen daran erinnert, wie es ihm erging und wie gut seine Nachbarn abschnitten.“ (Fisher 2010, S.58)

Was mich in den folgenden Posts besonders interessiert, sind die Bezüge zwischen der Schwarmintelligenz, der Gestaltwahrnehmung und der individuellen Urteilskraft. Wenn dieser vorangestellte kurze Aufriß zur Schwarmintelligenz nicht allzusehr danebenliegt und ich das Phänomen einigermaßen getroffen habe, dann ergeben sich in dieser Richtung doch einige interessante Parallelen und Unterschiede, die uns einmal mehr Hinweise darauf liefern, wie das menschliche Bewußtsein funktioniert.

Download