Gelegentlich kommt es auch in professionell geführten Feedbackgesprächen dazu, dass uns unser Gegenüber mitteilt, wir klängen aggressiv, genervt oder gelangweilt. Meistens sind wir erstaunt über die Wahrnehmung des anderen und entgegnen: „Ich?! Aggressiv?! In keinster Weise! Ganz im Gegenteil: ich spreche doch ruhig und besonnen.“ Und tatsächlich sind wir fest davon überzeugt, wir sprächen in einem ruhigen und angemessenen Ton, während unser Gesprächspartner unsere Gereiztheit deutlich heraushören kann. Doch wie kommt diese unterschiedliche Wahrnehmung, der auch erfahrene Coaches und Trainer erliegen, zustande?

Schon früh im Leben eines Menschen entwickelt sich die Fähigkeit, Emotionen aus extraverbalen Merkmalen unseres Gegenübers abzulesen und Gefühle über die Stimme herauszuhören. Forscher der Max-Planck-Instituts um Tobias Grossmann konnten nachweisen, dass Babys bereits mit sieben Monaten in der Lage sind, menschliche Stimmen von anderen Geräuschen ihrer Umwelt zu unterscheiden. Außerdem beginnen sie bereits in diesem Alter damit, paraverbale Merkmale (und somit Emotionen) in der menschlichen Stimme zu erkennen.

Verantwortlich für diesen Prozess in unserem Gehirn ist der sogenannte Sulcus Temporalis Superior (kurz STS). Während bei vier Monate alten Säuglingen jede beliebige auditive Wahrnehmung Aktivität in diesem Bereich erzeugt, ist dies mit sieben Monaten nicht mehr der Fall. Ab diesem Zeitraum reagiert der STS nur noch auf menschliche Stimmen und zwar unabhängig davon, ob es sich um eine dem Baby „bekannte“ Sprache handelt oder nicht. In einem zweiten Experiment konnte Tobias Grossmann darlegen, dass das menschliche Gehirn bereits auf unterschiedliche Intonationen ein und dergleichen Äußerung reagiert.

Auch Sophie Scott vom University College London hat die Relevanz des STS für das Erkennen von Emotionen in Stimmen in einem sehr interessanten Forschungsbericht herausgestellt und argumentiert dafür, dass insbesondere der Bereich des STS in der rechten Hemisphäre dazu diene, paraverbale Merkmale in Äußerungen und somit Gefühle zu erkennen.

The left mid-STS shows an enhanced response to sublexical phonetic structure in speech, and the left anterior STS has been linked to the processing of intelligible speech and to the formation of auditory word forms. In contrast, the right STS has been argued to be important for processing pitch variation, since it shows a sensitivity to the dynamic pitch information in speech and music. In an adaptation study, the right anterior STS showed a specific response to changes in speakers, but not to changes in the words the different speakers said, suggesting a role in the processing of vocal identity. The right anterior STS has also been shown to be sensitive to signals with sufficient spectral detail for speaker identity to be available, over an acoustic control condition.The STS is also very sensitive to non-verbal emotional expressions.

Aus: 5 Brain mechanisms for processing perceivedemotional vocalizations in humans – Seite 190

Interessanterweise – und nun kommt die große Überraschung – schaltet gerade dieser Bereich unseres Gehirns auf „Standby“, wenn wir selbst sprechen. Auf der einen Seite sind wir also sehr gute Zuhörer und erkennen die kleinste emotionale Regung in der Stimme unseres Gegenübers. Sobald wir jedoch selbst reden, schaltet unser Gehirn ab und wir sind nicht in der Lage, Feinheiten und Betonungen in unserer eigenen Stimme zu hören. Jedenfalls nicht so gut, als wenn wir unserer eigener Zuhörer wären. Dies liefert jedoch eine weitere interessante Begründung dafür, warum unsere eigene Stimme so seltsam klingt, wenn wir sie auf einer Tonbandaufnahme hören: dann nämlich sind wir viel eher in der Lage, feine Nuancen in der Betonung und vieles andere mehr zu erkennen und zu analysieren.(1)

Anmerkungen   [ + ]

1.Auf NPR.org gibt es hierzu ein sehr hörenswertes Inverview mit Sophie Scott, den relevanten Teil zum Aspekt Sprechen und Hören finden Sie ab circa 07:28 in diesem Gespräch.