Mittwoch, 3. August 2011

Len Fisher, Schwarmintelligenz. Wie einfache Regeln Großes möglich machen, Frankfurt a.M. 2010 (2009)

1. Schwarmintelligenz als universales und skalenfreies Phänomen
2. Mustererkennung und Gestaltwahrnehmung
3. Mehrheitsentscheidungen und individuelles Urteil
4. Gesellschaftsfähigkeit
5. Bildung und Netzwerk

In diesem Post wird es nochmal um die Problematik einer Verhältnisbestimmung von Gestaltwahrnehmung und Statistik gehen. Ich hatte in meinen Post vom 19.07.2011 darauf Wert gelegt, daß statistische Berechnungen nur artifizielle Methoden seien – besser wäre es, von ‚Abkürzungen‘ zu sprechen – und daß es sich bei ihnen keinesfalls um genuine, fundamentale Bewußtseinsprozesse handelt. Wenn ich hier von ‚Abkürzungen‘ spreche, dann ist damit die Umgehung der Gestaltwahrnehmung gemeint, die ich als genuinen Bewußtseinsprozeß verstehe.

In meinem Post vom 24.07.2011 habe ich die Differenz zwischen Statistik und Gestaltwahrnehmung auch daran festgemacht, daß Statistik eine umwegige, vermittelte Prozedur darstellt, während Gestaltwahrnehmung vor allem durch Unmittelbarkeit gekennzeichnet ist. Die Überlegenheit der Gestaltwahrnehmung, hatte ich geschrieben, liege darin, daß die Gestaltwahrnehmung überkomplexe Sinnzusammenhänge erfassen kann, an denen statistische Formeln scheitern müßten. In diesem Post möchte ich diese Thesen gerne differenzieren. Dabei bewege ich mich aber in einem höchst spekulativen Feld, und letztlich geht es mir nur darum, einige heuristische Orientierungspunkte zu setzen, mit deren Hilfe eine vage Grenzlinie zwischen artifiziellen Prozeduren der Musterkennung und der Gestaltwahrnehmung sichtbar werden könnte.

Len Fisher beschreibt, wie aus der Interaktion vieler Individuen in der Gruppe oder im Schwarm Muster entstehen: „Systeme am Rande des Chaos, egal ob Schwärme von Tieren oder menschliche Gesellschaften, haben ebenfalls eine dynamische Ordnung, die allerdings etwas stabiler ist als die Strömungen in einer Kaffeetasse. Die Ordnung ergibt sich aus Regeln für das Zusammenspiel von Individuen, aus denen wiederum dynamische Muster in großem Maßstab entstehen. Diese prägen die Gesellschaft als Ganze und wirken auf ihre Angehörigen zurück.“ (Fischer 2010, S.17) – Diese Muster ergeben sich „zwangsläufig“: „Wenn sich beispielsweise sechs Personen auf einer Party treffen, dann muss es zwangsläufig eine Verbindung zwischen drei von ihnen geben – entweder eine positive Verbindung, weil sie sich kennen, oder eine negative Verbindung, weil sie sich nicht kennen.“ (Fischer 2010, S.177)

Mit dem „Satz von Ramsey“ kann man nun mathematisch berechnen, bei welcher Größenordnung einer Party sich bestimmte Muster ergeben müssen, so daß solche ‚zwangsläufigen‘ Muster auch als ‚zufällige‘ Muster gekennzeichnet werden können. Wenn sich also bei sechs Personen eine gemeinsame Verbindung zwischen dreien von ihnen ergibt, z.B. daß sie sich kennen oder auch im Gegenteil, daß sie sich nicht kennen, hat dieses Muster keinen Erkenntniswert. Sobald sich aber ein Muster zwischen vier Personen ergibt, ist dieses Muster nicht mehr ‚zwangsläufig‘ bzw. ‚zufällig‘, sondern es muß irgendeinen Grund dafür geben, so daß dieses Muster jetzt einen Erkenntniswert hat. Mit Ramseys Formel kann man also berechnen, welche Muster bloß zufällig und welche Muster bedeutungsvoll sind.

Ein anderes Beispiel für eine mathematische Prozedur ist das Benfordsche Gesetz. Mit Hilfe der von Simon Newcomb entwickelten und nach Frank Benford benannten Formel kann man berechnen, ob die Zahlen in einer Bilanz oder in der statistischen Auswertung in einer Doktorarbeit gefälscht sind. Newcomb hatte entdeckt, daß in einer größeren Menge von mehrstelligen Zahlen die Verteilung der Ziffern unregelmäßiger ist, als man nach dem Zufallsprinzip vermuten sollte. So steht z.B. die 1 häufiger am Anfang einer mehrstelligen Zahl als die 9, und zwar im Verhältnis von 30,1 % zu 4,6 %. Diese Prozentzahlen sind für jede Ziffer zwischen 1 und 9 verschieden!

Fälscht also jemand eine Bilanz, indem er die verschiedenen Ziffern in mehrstelligen Zahlen nach dem Zufallsprinzip verteilt, kann man mithilfe des Benfordschen Gesetzes diese Fälschung einwandfrei nachweisen. Interessant ist nun, was Fisher zu dieser Entdeckung schreibt: „Heute wird das Benford’sche Gesetz in vielen Bereichen eingesetzt, beispielsweise um Fälschungen in medizinischen Untersuchungsdaten ausfindig zu machen und Projektanträge auf falsche Angaben zu prüfen. All diese Anwendungsmöglichkeiten ergaben sich nur, weil Newcomb und Benford in einer scheinbar zufälligen Menge von Zahlen Muster erkannten und weil sie den Mut hatten, ihren eigenen Augen zu trauen.“ (Fisher 2010, S.175)

Hier haben wir einen ersten Beleg für meine Eingangsthese, daß die Gestaltwahrnehmung ein grundlegender Bewußtseinsprozeß ist und daß die Statistik als eine artifizielle Prozedur nur auf dieser Basis funktionieren kann. Newcomb mußte sozusagen seinen eigenen Augen trauen, als er entdeckte, daß die Ziffernverteilung nicht zufällig ist. Entgegen aller Wahrscheinlichkeit hatte er in der Ziffernverteilung ein nichtzufälliges Muster erkannt, und erst auf dieser Basis konnte er eine Methode entwickeln, die dieses Muster in allen denkbaren Ziffernverteilungen entweder nachweist – dann haben wir es mit ‚realen‘ Zahlenverhältnissen zu tun – oder eben nicht – dann haben wir es mit gefälschten Zahlenverhältnissen zu tun.

Können wir also anhand der Entdeckung des Benfordschen Gesetzes sehen, wie zuerst die Gestaltwahrnehmung kommt („den eigenen Augen trauen“) und dann der Algorithmus für statistische Mustererkennung, so können wir am Beispiel des Satzes von Ramsey sehen, wo die Grenze statistischer Mustererkennung liegt. Die Reichweite dieses Satzes ist nämlich nicht sehr groß. Man kann inzwischen berechnen, wie groß eine Party sein muß, damit ein zwangsläufiges Muster zwischen vier Personen entsteht. Eine solche Party umfaßt 18 Gäste. Aber es gibt immer noch keine Lösung für die Frage, wie groß eine Party sein muß, damit sich irgendein zwangsläufiges Muster zwischen fünf Personen ergibt.

An dieser Stelle möchte ich meinen, daß wir mit Hilfe unserer Gestaltwahrnehmung durchaus jederzeit dazu in der Lage sind, jederzeit in allen möglichen Partys Muster zu erkennen und auch intuitiv einzuschätzen, wie wahrscheinlich diese Muster sind, also ob sie irgendwie bedeutungsvoll sind oder nicht. Nehmen wir z.B. unsere Fähigkeit, in Wolken Gestalten zu erkennen: Fisher bringt ein schönes Beispiel aus einem Peanutscomic, in dem Lucy Linus und Charlie Brown fragt, was sie in den Wolken am Himmel erkennen können. Linus spult ein ganzes Programm kulturell hochstehender Vergleiche mit Landkarten, Profilen historischer Persönlichkeiten und legendären Szenen der Religionsgeschichte ab, woraufhin Charlie kleinlaut zugeben muß, er habe eigentlich nur „Entchen“ und „Pferdchen“ gesehen. (Vgl. Fisher 2010, S.169f.)

Diese ‚Muster‘ in den Wolken sind selbstverständlich nicht ‚valide‘ oder ‚zwangsläufig‘. Ich frage mich aber trotzdem, ob die Fähigkeit, in Wolken ‚Muster‘ zu erkennen, nicht doch wieder auf die Überlegenheit der Gestalterkennung bzw. -wahrnehmung über die Statistik hindeutet. Es gibt keinen Algorithmus, der Wolkenbildungen simulieren kann, weil sie absolut chaotisch sind; wir sind aber dennoch in der Lage, in Wolken Gestalten zu erkennen – ob es nun nur die fachmännische Unterscheidung von Cirruswolken, Cirrocumuluswolken, Stratocumuluswolken etc. betrifft oder das Erkennen von Gesichtern und ‚Luftschlössern‘. Damit leistet unsere Gestaltwahrnehmung schon mehr als jeder Algorithmus, und wir können sogar mit Hilfe von Bauernweisheiten über das Jahr verteilte Wettervorhersagen machen, die wiederum eine statistische Signifikanz aufweisen.

Worauf ich hinaus will, ist folgendes: Mit Hilfe der Gestaltwahrnehmung sind wir in der Lage komplexe Prozesse und Strukturen ‚auf einen Blick‘ zu erkennen und zu bewerten. Das gilt für jedermann und für Experten, z.B. Meteorologen oder Bauern, natürlich in besonderem Maße. Die Statistik kann uns allenfalls dabei helfen, diese erkannten ‚Muster‘ auszuwerten. Und wir können sogar Algorithmen entwickeln, mit deren Hilfe wir das Entstehen von Mustern simulieren können. Aber alles das bleibt weit hinter dem zurück, was das einfache, unmittelbare Erkennen und Verstehen von Gestalten leistet.

Fisher spricht davon, daß uns für das Erkennen von Gesetzmäßigkeiten und Mustern zwei Wege zur Verfügung stehen: „unsere Fantasie und die Statistik.“ (Fisher 2010, S.169) Als neurophysiologische Voraussetzung nennt Fischer die Identität der Gehirnregionen, mit deren Hilfe wir Gestalten sowohl wahrnehmen als auch erinnern: „ Der Prozess der Assoziation wird unterstützt durch die Tatsache, dass unser Gehirn dieselben Areale benutzt, um Muster wahrzunehmen und sich an früher wahrgenommene Muster zu erinnern.“ (Fischer 2010, S.170) – Wir haben es also bei der Gestaltwahrnehmung mit einer Überblendung von Wahrnehmung und Erinnerung zu tun, und Fisher hält fest: „Die Fantasie spielt dabei eine zentrale Rolle.“ (Fisher 2010, S.170)

Die Phantasie ermöglicht es uns nämlich, „ein wachsendes Repertoire an Beziehungen zwischen optischen Eindrücken und Gegenständen, Geräuschen und Bedeutungen“ herzustellen und – das ist jetzt der wesentlich Punkt – „Abkürzungen zu nehmen“ (vgl. Fisher 2010, S.170): „Wissenschaftler verwenden ähnliche Abkürzungen, auch wenn sie nicht von ‚Fantasie‘ sprechen, sondern von ‚Hypothesen‘. Im Grunde ist es dasselbe: Sie malen sich aus, wie etwas sein könnte, und vergleichen dieses Bild dann mit der Wirklichkeit.“ (Fisher 2010, S.171)

Hier haben wir eine schöne Verhältnisbestimmung von Gestaltwahrnehmung als Bewußtseinsprozeß (Phantasie) und Statistik als Methode (Abkürzung). Bevor etwas ‚verglichen‘ werden kann (z.B. das Bild mit der Wirklichkeit), müssen wir uns von etwas ein ‚Bild‘ gemacht bzw. eine Hypothese aufgestellt haben. D.h. wir müssen eine Gestalt, ein Muster, eine Konstellation etc. wahrnehmen können. Erst dann kommt die Statistik in Form von Abkürzungen zum Zug! Genaugenommen hat Fisher natürlich schon die wissenschaftlichen Hypothesen als ‚Abkürzungen‘ bezeichnet. Wie oben schon angedeutet kann die Grenzlinie zwischen Gestaltwahrnehmung (Phantasie) und Prozeduren bzw. Methoden nur sehr vage gezogen werden, wie ja auch schon Fishers Hinweis auf die große Bedeutung der Phantasie gerade auch bei der wissenschaftlichen Hypothesenbildung andeutet.

Dennoch muß diese Grenzlinie gezogen werden, weil wir uns vor Kurzschlüssen hüten müssen, in denen wir plötzlich Bewußtseinsprozesse (wie z.B. Gestaltwahrnehmung, Lernen, Verstehen, Erfahrung, Denken etc.) mit statistischen Prozeduren gleichsetzen.

Abschließend möchte ich noch kurz auf die Zwangsläufigkeit von Mustern zu sprechen kommen. Wir erkennen sie ja nicht nur in den Wolkengebilden, sondern z.B. auch in historischen Prozessen, die wir dann als ‚Epochen‘ bezeichnen. Wenn ich in früheren Posts zu Plessner und Welzer die Geschichte vor allem als chaotischen Prozeß beschrieben habe, dem keine Gesetze zugrundeliegen, so ist es für die Komplexitätsforschung doch eher selbstverständlich, daß sich gerade in historischen Zusammenhängen auch Muster bzw. Konstellationen ergeben, die wir dann auch als in sich zusammenhängende ‚Epochen‘ beschreiben können. Das gilt natürlich vor allem für die Außenperspektive des Beobachters und nicht für die Teilnehmerperspektive. Solche Muster kann man also historische oder kulturelle Epochen nennen. Ihre ‚Entwicklung‘, also ihr chronologisches Auftreten, dürfte dann allerdings eher eine Frage der Emergenz sein. An dieser Stelle müßte man dann auch die Bedeutung individuellen Handelns neu bewerten, das auf der Schwelle des ‚Umkippens‘ von einer Epoche zur anderen möglicherweise Entscheidendes beizutragen hat. Und dieses läßt sich kaum mit mathematischen Formeln berechnen.

PS (04.08.2011): Wenn ich weiter darüber nachdenke, habe ich den Eindruck, daß es eigentlich doch nicht so verwunderlich ist, daß in Zahlenkombinationen die kleineren Ziffern häufiger am Anfang einer Zahl stehen als die größeren. Diese Zahlenkombinationen bezeichnen ja immer Mengen, und Mengen setzen sich aus Teilen bzw. Elementen zusammen. Diese Mengen stellen also Aggregationen dar. Um eine bestimmte Größenordnung zu erreichen, müssen deshalb die Teile ‚aggregieren‘, d.h. sie müssen sich zu einer Menge zusammenfinden, handele es sich dabei nun um eine Menschenmenge oder um einen Geldbetrag in einer Bilanz. Solche Mengen aggregieren immer aus kleineren Mengen und letztlich aus der Eins. Das ist pure Arithmetik: Jede Reihe beginnt mit einer Eins! Also wird in Mengen bis zu 100 Elementen die 10 (mit der Eins als der ersten Ziffer) wesentlich häufiger vorkommen als die 20 oder die 30 etc. Und in Mengen bis zu 1000 Elementen werden die 10 und die 100 wesentlich häufiger vorkommen als die 20, 30 etc. oder als die 200, 300 etc. Letztlich braucht man also keine große mathematische Raffinesse, um zu erkennen, daß die 1 in Bilanzen oder in anderen statistischen Zusammenhängen am Anfang einer mehrstelligen Zahl häufiger vorkommen muß als die 9.

Download

Keine Kommentare:

Kommentar veröffentlichen