„...letztlich ist der Mensch, als Folge oder Krönung der Evolution, nur in der Totalität der Erde begreifbar.“ (Leroi-Gourhan, Hand und Wort, S.22)

Sonntag, 24. Juli 2011

Raoul Schrott/Arthur Jacobs, Gehirn und Gedicht. Wie wir unsere Wirklichkeit konstruieren, München 2011

2. Methode
    – Interdisziplinarität
    – Korrelation
    – Statistik
3. Zum Projekt einer Ästhesiologie des Geistes (Plessner)
4. Metaphern, Analogien und exzentrische Positionalität
5. Bewußtsein: Schaltkreise, Regelkreise und Netzwerke
6. Zum Konzept eines Kernselbsts (Damasio)
7. Haltungen
8. Gestaltwahrnehmung und Kategorien
9. Naivität und Kritik/Reflexion
10. Statistisches Verstehen von Sätzen und unmittelbares Verstehen von Metaphern
11. Reine Stimuli: die Sichtbarmachung von nur ungenau Geschautem
12. Regel und Regelbruch: Differenz von Sagen und Meinen
13. Poesie versus Narrativität
14. Genetisch vorprogrammiert? – Denkfiguren als Operationsmodi des Gehirns

Zur Statistik hatte ich mich schon in meinem entsprechenden Post vom 19.07.2011 geäußert. Dabei war es mir darum gegangen, die Statistik ausschließlich als Forschungsmethode und nicht als Natur- und Bewußtseinsprozeß darzustellen. Statistik nicht nur auf Natur- und Bewußtseinsprozesse zu beziehen, sondern diese selbst als statistische Prozesse darzustellen, ist einer von jenen Kategorienfehlern, auf die ich in meinem Post vom 22.07.2011 zu sprechen gekommen bin. Hier möchte ich noch einmal im Detail begründen, warum ich das metaphorische Prinzip bei Lern- und Verstehensprozessen als einen Bewußtseinsprozeß verstehe, die Statistik aber nicht.

Zunächst aber zum Problem bei Schrott, das mich dazu veranlaßt, hier noch einmal zu insistieren. An verschiedenen Stellen suggeriert Schrott, daß Lernen und Verstehen statistische Prozesse seien. So heißt es z.B. zum Sprechenlernen: „Wir lernen Sprache nur, indem wir gewissermaßen statistische Voraussagen über die Wahrscheinlichkeit treffen, mit der ein Wort auf ein anderes folgt – nur eben mit einem exponentiell weit komplexeren Netzwerk von Neuronen. Grammatik ist letztlich nichts anderes als eine kodierte Wortfolge, die alle Vorhersagen erfüllt.“ (Schrott 2011, S.181) – Oder es heißt zum Verstehen von Situationen und Kontexten: „Ist im Rahmen einer Küche von einem Stuhl die Rede, halten wir es für wahrscheinlicher, dass er ‚zurückgeschoben‘ oder zu einem Tisch ‚gestellt‘ wird, als daß er ‚geworfen‘ wird. Alle möglichen Szenarien, die wir vom Beginn eines Satzes an entwerfen (bei der Produktion wie der Rezeption), reduzieren sich mit jedem weiteren Wort – bis man den Satz beim Zuhören schon vor seinem Ende meist selbst vervollständigen kann. Dieser Selbstvervollständigungsmechanismus basiert auf dem Prinzip der auf Wahrscheinlichkeit basierenden Prädiktion, die wir uns im Laufe unseres Spracherwerbs antrainieren.“ (Schrott 2011, S.181f.)

Sowohl das Erlernen einer Grammatik wie auch das Verstehen von Sinnzusammenhängen beruht also Schrott zufolge auf dem Reduzieren von Komplexitäten und ihrer allmählichen Zurückführung auf eindeutige, unmißverständliche Klarheit. Diese Form des statistischen Verstehens basiert wiederum auf dem mathematischen Verständnis des Informationsbegriffs, demzufolge komplexe Optionen mithilfe des Wahrscheinlichkeitsprinzips auf wenige, möglichst eine reduziert werden. Dazu paßt eine weitere Neigung von Schrott, in bezug auf Lern- und Verstehensprozesse von „Konditionierung“ zu sprechen. (Vgl. Schrott 2011, S.33, 47, 64f., 66 u.ö.) Schrott geht sogar so weit, das Universitätsstudium als eine „lange Konditionierungszeit“ zu beschreiben. (Vgl. Schrott 2011, S.33)

Man könnte Schrott vielleicht zugute halten, daß er hier den Begriff der Konditionierung in einem metaphorischen, möglicherweise sogar ironischen Sinne verwendet. Aber das möchte ich ihm so nicht durchgehen lassen. Der Begriff der Konditionierung stammt aus dem Behaviorismus, und damit ist wahrhaftig schon genug Unheil gestiftet worden. (Vgl. meinen Post vom 15.05.2011) Schrott verbindet nun den Begriff der Konditionierung mit dem Begriff der Assoziation zum Begriff der „konditionierten Assoziation“ (vgl. Schrott 2011, S.66), was wiederum eine gefährliche Verengung des Blickwinkels auf das Gehirn als „Assoziationsmaschine“ (vgl. Schrott 2011, S.74 und S.256) bzw. als „Assoziationsnetzwerk“ (vgl. Schrott 2011, S.192) bedeutet. Denn so wird das Gehirn zu einer Konditionierungsmaschinerie degradiert. Schrott überblendet hier Konditionierung (A) und Assoziation (B), ohne daß daraus ein neuer produktiver Gedanke hervorgeht, sondern vielmehr seine tatsächlich neuen, produktiven Gedanken auf längst als fehlerhaft und schlecht durchdacht überführte Theoriemodelle zurückgestutzt werden.

Der Begriff der Assoziation ist nämlich nach Schrotts eigener Darstellung weniger statistisch und weniger ‚konditioniert‘ als die oben aufgeführten Verbindungen suggerieren. So wird nämlich der Assoziationsmechanismus von Schrott an anderer Stelle als metaphorisches Prinzip des Überblendens von verschiedenen Strukturen wie z.B. von ‚Bild‘ und ‚Sprache‘ und von ‚Musik‘ und ‚Sprache‘ beschrieben. Bei diesen Überblendungen arbeiten „parallel kodierende Systeme“, d.h. neuronale Netzwerke zusammen: „ein System, das auf die Repräsentation und Elaboration von Informationen, Objekten und nicht-sprachlichen Ereignissen spezialisiert ist; ein anderes, das sich auf ihre Beziehung zur Sprache konzentriert“. (Vgl. Schrott 2011, S.406) – Wir haben es also bei unserem Gehirn als „Assoziationsmaschine“ mit einem globalen Phänomen der Verknüpfung funktional getrennter, in sich sinnhafter, gestalterzeugender Netzwerke zu neuen Gestalten und Sinneinheiten zu tun. Das alleine halte ich schon für ein so überkomplexes Phänomen, daß ich dafür keinesfalls simple statistische Mechanismen der Komplexitätsreduktion als Erklärung akzeptieren kann.

Das „Assoziationsvermögen“ selbst beschreibt Schrott dann auch, wiederum an anderer Stelle, als Grundprinzip der Gestaltwahrnehmung, „das ökonomisch darauf bedacht ist, allem eine einheitliche Gestalt zu verleihen.“ (Vgl. Schrott 2011, S.416) Das Assoziationsvermögen trägt zur „Klassifizierung von Objekten in Kategorien“ bei, was „(evolutionsbiologisch) grundlegend (ist) für unser Überleben: sicher fühlen wir uns erst in einer Welt, in der wir zwischen Beute und Raubtier, essbar und ungenießbar, männlich und weiblich, Tag und Nacht unterscheiden können. ... Zu kategorisieren bedeutet dabei, in spezifischen Dingen (‚Julia‘) Exemplarisches (‚Frau‘) zu erkennen – und in exemplarischen Dingen das Spezifische. ... Verborgene Ähnlichkeiten in sukzessiven unterschiedlichen Episoden zu entdecken, erlaubt uns, Kausalitätsketten zu erkennen und unser Verhalten sodann prädiktiv an veränderte Umstände anzupassen.“ (Vgl. Schrott 2011, S.135)

So bildet das Assoziationsvermögen in diesem Zitat sogar die Basis für eine unserer grundlegendsten Denkkategorien: für Kausalität. Daraus einen statistischen Prozeß machen zu wollen, etwa daß statistische Prozesse die empirische Grundlage für die Kategorie der Kausalität bilden, hieße, das Pferd von hinten aufzäumen. Denn um kausale Zusammenhänge zwischen statistischen Größen herstellen zu können, etwa dem Abholzen von Bergwäldern und der Zunahme von Schlammlawinen, bedarf es allererst einer Vorstellung von Kausalität. Die Kausalität erklärt sich nicht durch statistische Verstehensprozesse, sondern durch die Fähigkeit, Gestalten zu erkennen. Und die Fähigkeit, Gestalten zu erkennen und zu assoziieren – also zu überblenden –, ermöglicht allererst die Statistik als Forschungsmethode, die also zwar auf Bewußtseinsprozessen beruht, aber selbst kein Bewußtseinsprozeß ist!

Wie weit die Statistik davon entfernt ist, ein originärer Bewußtseinsprozeß zu sein, zeigt folgendes, von Jacobs stammende Zitat: „Die klassische Sichtweise der Philosophie ... geht ... davon aus, dass Metaphern zunächst wörtlich aufgefasst werden. Die logisch falsche Aussage wird verworfen und in ein Simile transformiert ..., das erst darauf dank einer wie auch immer gearteten Ähnlichkeitsberechnung zwischen den beiden Vergleichsbegriffen verstanden werden kann. ... Neurokognitive Studien mit EEG, bildgebenden Verfahren und an Patienten mit Hirnläsionen oder Schizophrenen lassen denn auch Zweifel an der klassischen Auffassung aufkommen: sie stützen das Modell einer direkten Interpretation von Metaphernforschern wie Ray Gibbs, die nicht notwendigerweise den Umweg über die wörtliche nehmen muss. In solchen Studien zeigt sich beispielsweise, dass die Amplitude der N400-Komponente (einer hirnelektrischen Welle, die zuverlässig stets dann erscheint, wenn ein Wort eine vom semantischen Kontext her unerwartete Bedeutung aufweist) in der kontextadäquaten metaphorischen Äußerung reduziert ist ... .“ (Jacobs 2011, S.121)

Anstatt also das Metaphernverstehen auf „wie auch immer geartete() Ähnlichkeitsberechnungen“ zurückzuführen, haben wir es in den beschriebenen Studien mit Belegen dafür zu tun, daß Metaphernverstehen gar nicht auf statistischem Wege funktionieren kann! Die statistischen Prozeduren sind viel zu umständlich und langsam und viel zu sehr auf das Reduzieren von Mehrdeutigkeiten auf Eindeutigkeiten angewiesen, als daß sie das nicht-wörtliche, direkte Sinnverstehen von Metaphern erklären könnten. Das Erkennen einer Gestalt und das Verstehen von Sinn funktionieren anders als auf statistischem Wege.

Gestalten und Bedeutungen werden auch nicht auf statistischem Wege erlernt, etwa durch Konditionierung, um dann im Langzeitgedächtnis abgelegt auf die Gelegenheit ihres Abgerufenwerdens zu warten, so daß sich das unmittelbare Verstehen auf diese Weise als nachträgliche Leistung erklären läßt, der irgendwann in der Lernbiographie ein statistischer Lernprozeß vorangegangen ist. So spricht Jacobs z.B. von „fünf empirischen Kernphänomenen“ (Tomasello) des kindlichen Wortlernens, die auch eine Theorie statistischen Lernens erklären können müßte. Mindestens zwei dieser Kernphänomene kann so eine Theorie aber nach meiner Einschätzung prinzipiell nicht erklären, nämlich wie es kommt, daß Kinder die Bedeutung von Wörtern „oft aufgrund eines einzigen Beispiels erraten“ (vgl. Jacobs 2011, S.171), und wie „mehrere Wörter für ein Ganzes, eine Aktion, eine Eigenschaft oder Relation stehen können“, so daß sich ein „System überlappender Konzepte mit je einem eigenen linguistischen Etikett“ (vgl. Jacobs 2011, S.172) ergibt. Ersteres deutet auf unmittelbares Sinnverstehen, das Zweite verweist auf einen statistisch nicht auflösbaren Bereich von Bedeutungszusammenhängen, eben auf Sinn von Sinn, die auf Kontexte und Intentionen bezogen sind und aus denen erst die dazugehörigen Situationen einen bestimmten Bedeutungseffekt herauskristallisieren. Wir haben es also mit einer Überkomplexität zu tun, angesichts deren jede Statistik scheitern muß.

Es spricht allerdings vieles dafür, daß das Sprechenlernen oder das Verstehen von Metaphern auf der Basis der Gestaltwahrnehmung und des Verstehens von Sinn sich durchaus auch auf die Berechnung von Wahrscheinlichkeiten stützt. Wie sonst sollte man z.B. aus Fehlern, die unseren diesbezüglichen Erwartungen widersprechen, lernen? Aber die Basis dieses Lernens ist eben nicht die Statistik. Das Lernen ist hier das eigentliche Bewußtseinsphänomen, die Statistik aber eben nur eine Methode.

Download

Keine Kommentare:

Kommentar veröffentlichen