Science communication

KlarText Preis

Diesen Artikel habe ich 2021 als Beitrag für den KlarText Preis der Klaus Tschira Stiftung verfasst.

Hören, was wir hören wollen

Im Alltag prasseln oft unzählige Geräusche auf uns ein. Trotzdem schaffen wir es, Störgeräusche auszublenden und einem Gespräch zu folgen. Unser Gehirn agiert dabei wie eine Art Scheinwerfer: wichtige Informationen werden hervorgehoben, während irrelevante Informationen im Schatten verschwimmen.

Als Vera den Versuchsraum betritt, stoppt sie kurz. Alles hört sich seltsam dumpf an. Der Raum am Leibniz-Institut für Arbeitsforschung in Dortmund ist mit kleinen Pyramiden aus Schaumstoff ausgekleidet, die Schallwellen besonders gut schlucken. Vera nimmt Platz auf dem einzigen Stuhl im Raum. Im Halbkreis vor ihr sind auf Kopfhöhe Lautsprecher angebracht. Aus verschiedenen Winkeln ertönen gleichzeitig immer wieder unterschiedliche Geräusche. Vera soll sich auf ein bestimmtes Geräusch konzentrieren und angeben, aus welchem Lautsprecher es kommt.

Was wir hier im Labor nachgestellt haben, kennt jeder, der schon mal auf einer gut besuchten Party war und nur seinem Gegenüber zuhören wollte. Wir erforschen, wie genau unser Gehirn in solchen anspruchsvollen Hörumgebungen die für uns relevanten Geräusche oder Sprachreize herausfiltert.

Faszinierend ist diese Frage für mich vor allem, da ich seit kindheitstagen auf einem Ohr taub bin. Die oben geschilderte Versuchssituation ist für mich daher unfassbar anstrengend, ja nahezu unlösbar. Hinzu kommt, dass es uns allen mit dem Alter schwerer fällt, in komplexen Hörsituationen zurecht zu kommen. Verstehen wir erst einmal, wie das hörende Gehirn solche Situationen meistert, könnten von diesem Wissen zukünftig auch Gruppen mit Beeinträchtigung profitieren.

Wenn viele Geräusche auf uns einprasseln, zerlegt unser Gehirn das Geräuschgemisch zunächst in einzelne Schallquellen. Anschließend können wir unsere Aufmerksamkeit gezielt auf bestimmte Schallreize ausrichten, während andere ausgeblendet werden – je nachdem, was aktuell für uns wichtig ist. Das kann man sich wie einen Scheinwerfer vorstellen, der durch den Raum wandert und die wichtigen Personen (oder Geräuschquellen) hervorhebt. Das ist das Grundprinzip der selektiven räumlichen Aufmerksamkeit.

Wie dieser Scheinwerfer im Gehirn aussieht, untersuchen wir mithilfe eines Elektroenzephalogramms, kurz EEG. Elektroden auf der Kopfhaut einer Testperson erfassen dabei elektrische Signale der Nervenzellen, die durch die Schädeldecke nach außen dringen. Während des Versuchs wird an jeder Elektrode eine Kurve aufgezeichnet. Schauen wir uns die Höhe, die Frequenz oder die Richtung des Ausschlages dieser Kurven genauer an, können wir Rückschlüsse über die zugrundeliegenden Prozesse im Gehirn ziehen.

Die ersten Verhaltensstudien zu selektiver Aufmerksamkeit beim Hören stammen aus den 50er Jahren. Seither wurde allerdings vor allem erforscht, wie wir visuelle Informationen verarbeiten und auswählen. Über das hörende Gehirn hingegen wissen wir vergleichsweise wenig.

Das möchten wir ändern. Mithilfe des EEGs konnten wir nun zeigen, dass zwei Prozesse in komplexen Hörumgebungen wichtig sind: ein früher Auswahlprozess, der es uns wie ein Zoomobjektiv ermöglicht, die wichtige Information aus einer Geräuschkulisse herauszulösen, und ein nachgeschalteter Verarbeitungsprozess, der dazu dient, die ausgewählte Information genauer zu erfassen.

Wie erkennen wir diese Prozesse im EEG? Dazu müssen wir zunächst verstehen, wie unser Gehirn Sinneseindrücke verarbeitet. Informationen, die rechts im Raum auftauchen, werden primär von der linken Gehirnhälfte verarbeitet und umgekehrt. Am ausgeprägtesten ist dieses Prinzip beim Sehen. Beim Hören verläuft zwar ein Großteil der relevanten Nervenbahnen auf der ursprünglichen Seite des Gehirns, aber auch hier wird die vom rechten (oder linken) Hörnerv aufgenommene Information an die jeweils gegenüberliegende Hirnhälfte weitergeleitet. Wenn wir nun zum Beispiel gezielt „nach rechts hören“, beeinflusst das vor allem die Aktivität der linken Hirnhälfte. Allein durch die Aufmerksamkeitsverschiebung sind die zwei Hirnhälften also unterschiedlich aktiv. Und dass, obwohl beide Hirnhälften nach wie vor gleichzeitig beschallt werden. Nun zurück in unser schallgedämpftes Labor mit den vielen Lautsprechern. Testpersonen wie Vera hörten gleichzeitig verschiedene Tierlaute. Ihre Aufgabe war es herauszufinden, ob etwa ein bellender Hund dabei war. Dann sollten sie angeben, ob das Bellen von rechts oder links zu vernehmen war.

Dabei sehen wir nach wenigen hundert Millisekunden im EEG an zur Stirn hin gelegenen Elektroden folgendes: Das Signal der EEG-Kurve schlägt negativ aus, jedoch nicht gleichermaßen in beiden Hirnhälften. Je nach Position des relevanten Geräusches, ist der Ausschlag stärker über Arealen auf der gegenüberliegenden Seite des Gehirns. Hören wir nach links, ist der Ausschlag also auf der rechten Seite stärker als auf der linken Seite. Diese als N2ac Komponente bezeichnete Differenz im EEG Signal wurde erstmals 2011 von Steven Luck und Marissa Gamble nachgewiesen. Die genaue Funktion dieser Komponente war bisher weitgehend unklar. Neu an unseren Befunden ist: Die spezielle Veränderung im EEG tritt sowohl dann auf, wenn wir etwas schlicht heraushören sollen, als auch wenn wir die Richtung bestimmen müssen, aus der ein Geräusch kam. Um sich auf etwas Gehörtes zu fokussieren, nutzt unser Gehirn also die räumliche Anordnung der Geräuschquellen in unserer Umgebung, auch wenn diese nicht relevant ist. In einer Folgestudie konnten wir zudem zeigen, dass Personen mit einer ausgeprägteren N2ac Komponente – das heißt mit einer größeren Differenz zwischen den Hirnhälften – tatsächlich besser darin sind die relevante Information in der Geräuschszenerie herauszulösen und diese im Raum zu verorten, als Personen mit einer schwächeren N2ac Komponente.

Bei einfachen Höraufgaben, wenn nicht relevant ist, von wo wir etwas hören, scheint dieser frühe Auswahlprozess – das Zoomobjektiv – bereits ausreichend zu sein. Müssen die Testpersonen jedoch auch die Position eines Geräusches angeben, verändert sich unsere Hirnaktivität wenig später erneut. Diese Veränderung betrifft die langsamen Schwingungen des EEG-Signals im Alpha-Frequenzbereich zwischen 8 - 12 Hertz. Das Prinzip ist ähnlich wie bei der N2ac Komponente: Die „Alpha Kurve“ schlägt negativ aus. Auch hier unterscheidet sich die Stärke des Ausschlags jedoch zwischen den Hirnhälften. Hören die Testpersonen zum Beispiel gezielt nach links, ist der Ausschlag der Alpha Wellen deutlich stärker an Elektroden auf der rechten Seite des Gehirns als auf der linken Seite. Da sich die Aktivität im Alpha-Frequenzbereich zwischen den Hirnhälften unterscheidet, sprechen Forscher hier von einer Alpha Asymmetrie.

Dass diese Alpha Asymmetrie eine entscheidende Rolle spielt, sobald wir unseren „Aufmerksamkeitsscheinwerfer“ auf bestimmte Positionen im Raum ausrichten, wurde bislang überwiegend in Studien zum Sehen gezeigt. Und zwar vor allem in Situationen, in denen wir uns darauf vorbereiten, dass gleich eine wichtige Information an einer bestimmten Position im Raum erscheinen wird. Dann verändert sich die Alpha Aktivität faszinierenderweise nämlich schon, bevor die eigentliche Information überhaupt zu sehen ist. Unser Gehirn bereitet sich vor. Im Alltag wissen wir jedoch häufig nicht vorab, wo eine relevante Information auftauchen wird. Wie etwa, wenn wir unser klingelndes Handy im Raum suchen. Dass Alpha Wellen auch beim Hören und für das Herausfiltern von kontinuierlich auf uns einprasselnden Informationen relevant sind, ist also eine wichtige Erkenntnis. Es verdeutlicht, wie flexibel der zugrundeliegende Mechanismus ist. Überaschenderweise treten die Veränderungen der Alpha Aktivität in ähnlichen Hirnarealen auf, die auch zuvor in visuellen Studien aufgefallen waren. Dabei handelt es sich um einen bestimmten Bereich der Großhirnrinde, der Teile des Scheitellappens und des Hinterhauptslappens umfasst. Während dem Scheitellappen eine zentrale Rolle bei der Steuerung unserer Aufmerksamkeit zugeschrieben wird, umfasst der Hinterhauptslappen jene Areale, die visuelle Information verarbeiten. Warum finden wir bei einer reinen Höraufgabe auch Veränderungen in solchen Hirnarealen, die eigentlich beim Sehen eine Rolle spielen? Im Alltag sehen und hören wir in der Regel die Dinge, die wir in der Umgebung verarbeiten wollen. Wenn wir uns auf Geräusche an einer bestimmten Position konzentrieren, ist es also denkbar, dass das Gehirn sich automatisch auch darauf einstellt, an dieser Stelle in der Umgebung etwas Relevantes zu sehen. Die Verarbeitung in Hirnarealen, in denen diese visuelle Information normalerweise ankommt, wird dann möglicherweise entsprechend optimiert. Ob das wirklich zutrifft, müssen wir noch untersuchen.

Vera steht nach diesem aufregenden Tag im Labor am Bahnsteig. Ein Zug rollt ein, ein Passant hört laut Musik, eine Gruppe von Jugendlichen lacht vergnügt. Vera ist noch immer fasziniert, was für komplexe Prozesse im hörenden Gehirn ablaufen. Während sie der Unterhaltung der Jugendlichen links neben ihr lauscht, stellt sie sich vor, wie ein Scheinwerfer zu ihnen herüberwandert, zunächst fokussiert und heranzoomt und dann ihre Stimmen genau abscannt, um diese trotz vieler anderer Geräusche gut verstehen zu können.