Springe zum Inhalt

Originalton + Regie III

Der Hund mit der Psychoakustik

Du triffst als RegisseurIn am Set Entscheidungen in schneller Reihenfolge. Viele davon haben Auswirkungen auf das Klangbild Deines Films. Fahren wir im Auto mit offenem Fenster? Drehen wir den Gegenschnitt dazu auf der Übersiedlung zum nächsten Motiv (Strasse mit Kopfsteinpflaster) oder am Originalschauplatz des ersten Setups (wo zufällig eine Asphaltstrasse war)? Ist diese Wiese (neben dem rauschenden Bach) ein geeignetes Motiv für unsere Szene? ...

Irgendwo im Hinterkopf weißt Du um die Auswirkungen Deiner Entscheidungen auf den Originalton. Die Verantwortung dafür macht Deine Aufgaben nicht leichter. 5 andere Fragen prassen gerade auf dich ein und Du musst die nächste Entscheidung treffen. Geht das jetzt für den Ton? Geht es nicht? Ja, wir nehmen die Wiese beim Wasserfall, man hört ihn zwar, aber das Wasser hat so etwas frisches, kühles, lebendiges, und auch elementares. Hör noch mal kurz hin, aber ja, wenn man den Bach nicht sieht, erzählt er sich im Ton.

Worauf sollst Du Dich als RegisseurIn verlassen, als auf Deine Ohren... wenns um den Ton geht?

Du verlässt Dich bei den Bildern auch auf Deine Augen, oder?

Nein, nicht wirklich: Du weißt, dass natürliches Sehen mit beiden Augen einen ganz anderen Eindruck ergibt, als der Blick durch ein Kameraobjektiv. Darauf reagierst Du als RegiesseurIn. Und stattest Dich mit Hilfsmitteln aus. Es ist der Blick durch den Motivsucher, auf den Monitor, auf die Videoausspiegelung der zählt.

Aber ist das beim Ton auch so? Da gibt es keine Brennweiten, keine Unschärfe und auch keinen "Tonausschnitt", im Gegenteil: jedes Mikrofon, auch Richtmikrofone, „hören“ immer Geräusche aus allen Richtungen, genauso wie das menschliche Ohr.

Also kann man sich bei der Beurteilung der Töne auf seine Ohren verlassen?

Theoretisch: Ja! Alles, was Du mit Deinen Ohren hören kannst, hat eine gute Chance auch auf Deiner Tonspur vorzukommen. Aber das ist gerade das Problem: Vieles können wir zwar hören, wir wollen es aber nicht. Und das hat seinen guten Grund:

Anders als die Augen kann man die Ohren nicht einfach verschließen. Man kann auch wegschauen, aber es ist physisch nicht möglich, wegzuhören. Alle hörbaren Geräusche finden immer den Weg zu unserem Trommelfell. Vor dem Sammelsurium an Geräuschvielfalt gibt es kein Entkommen. Und es gibt in unseren Hörgewohnheiten keinen harten Schnitt. Und - noch schlimmer - von dem täglichen Geräuschmüll gehen uns 99% definitv nichts an. Wie halten wir das im täglichen Leben nur aus?

Wir filtern es einfach weg!

das haben wir gelernt, langsam und sehr aufwändig, im Alter von 0-3 Jahren. Jede/r von uns hat in jener Zeit, zugleich mit dem Spracherwerb, ein funktionierendes akustisches Filtersystem entwickelt, das eine beachtliche Anzahl an akustischen Reizen zurückhält, damit sie keinen Eingang in die bewusste Wahrnehmung finden müssen. Auf diese Weise wird unser kognitives Potential geschont und für überlebenswichtige (oder lustvolle) Wahrnehmung und deren Interpretation freigehalten. Mit anderen Worten: Jede/r von uns leistet praktisch jederzeit psychoakustische Sortier-Arbeit. Wir misten andauernd 90-99% der Geräusch-Informationen als UNWICHTIG aus und BEMERKEN sie dadurch nicht mehr, so laut und drängend sie auch immer daherkommen.

Wenn wir ein Bild aus der Computerwelt bemühen, könnten wir sagen, dass wir uns mit unseren "Filteralgorithmen" den Rest der Welt leise „rechnen“. Und damit die Sprachverständlichkeit in der Kommunikation immens forcieren.

Dieses mit großem Aufwand erlernte Filterprogramm nagt aber auch an unseren Ressourcen: Die Anstrengung, hörbare Dinge nicht wahrnehmen zu müssen ist durchaus ein aktiver Prozess, den wir zwar nicht bewusst erleben, der aber alle Menschen (in unterschiedlichem Maß) belastet:
Hast Du auf einem Filmset schon mal das kollektive Aufatmen gespürt, wenn das Aggregat einer Scherenbühne plötzlich abgeschaltet wird? 30 Menschen werden momentan von der Arbeit befreit, den Motorenbrumm aktiv zu ignorieren.

Und hier kommt der kleine, aber wesentlichen Unterschied zwischen Deiner akustischen Wahrnehmung auf einem Filmset und dem dort aufgenommenen Ton:

Filmton kann nicht mit psychoakustischen Mitteln gefiltert werden

Unsere psychoakustischen Filter„Algorithmen“ basieren auf zeitlicher und räumlicher Wahrnehmung. Wenn wir beispielsweise das Geräusch der Scherenbühne kennen und es sich über lange Zeit hin nicht verändert, haben wir gelernt, dass es aktiv ignoriert werden darf. Aber wie ist das bei einem beim Filmschnitt, wenn sich die Hintergrundgeräusche alle 4 Sekunden ändern?

Unsere Wahrnehmung ist aber noch viel selektiver und fährt dazu mit beeindruckender "Technik" auf. Wenn ein Geräusch nämlich nicht aus der Richtung und Entfernung kommt, die uns interessiert (nämlich zum Beispiel dem Mund unseres Gesprächspartners), verbannen wir es als „störendes Element“ aus unserer Wahrnehmung.

Wir verlassen uns dabei auf die langjährige Erfahrung unseres Gehörs, durch Laufzeitunterschiede und minimale Frequenzabweichungen beim Auftreffen auf unsere beiden Trommelfelle präzise Aussagen zur Entfernung und Richtung einer Schallquelle treffen zu können. Und können damit sehr effizient "wichtige" von "irrelevaten" Schallereignissen unterscheiden. Die irrelevanten hören wir zwar, aber wir nehmen sie dank unserer räumlichen, mit der optischen Wahrnehmung korrelierten Filter nicht wahr. Ein Beispiel: Mein Mikrofon empfängt das Knarzen des Parkettbodens mit einem 10 x lauteren (!) Pegel, als die Worte, die sich zwei Leute im Gehen zuwerfen. Als lebenslang geschulte Hörer wissen wir, dass ein Parkettboden knarrt, dass dieses Knarzen aber keinerlei Bedeutung für unsere Lebenswirklichkeit hat. Wir nehmen wahr, dass die knarzenden Schritte aus geringfügig anderen Richtungen als die Stimmen unserer Protagonisten kommen, und sind in der Folge bereit, die „uninteressanten“ Knarr-Geräusche aus „unwichtigen“ Richtungen aktiv aus unserer bewussten Wahrnehmung auszufiltern, um uns voll auf das sinnstiftende Verstehen der Worte, der Zwischentöne und Stimmungsanteile der menschlichen Stimmen zu konzentrieren. Das funktioniert live vor Ort ausgezeichnet. Wäre es nicht der Fall, hätten sich Ende des 19. Jahrhunderts in Wien ganz sicher keine Fischgrät-Parkettböden durchgesetzt. Aber im Film?

Im Film kommen alle Geräusche aus ein und dem selben Lautsprecher.

Deshalb sind wir aufgrund der punktförmigen Ton-Wiedergabe nicht mehr in der Lage, routiniert nach Richtung und Entfernung zwischen „wichtig“ und „unwichtig“ zu unterscheiden. Der Dialog der zwei Menschen und das Knarzen ihrer Schritte sind für unser Gehör nicht mehr sinnvoll zu trennen, wir erleben das laute Knarren als störend und sind genervt, weil sinnstiftendes Zuhören zur anstrengenden Herausforderung wird.

Fazit: Unsere super psychoakustischen Filter sind beim Ton aus der Konserve außer Kraft gesetzt. Wir hören bei Tonaufnahmen wirklich immer alles. Es ist dann in der Aufnahme plötzlich ALLES da, vor allem auch das, was wir nicht gehört haben, weil es uns eh nur gestört hat.

Die schlechte Nachricht: unser psychoakustischer Hör-Apparat ist nicht für Kamerabilder und Lautsprecherton eingerichtet.

Wenn Du also die akustischen Gegebenheiten am Set beurteilen willst, musst du erst willentlich für einen Moment Deine psychoakustischen Filter ausser Kraft setzen. Das ist nicht weiter schwer, das Problem besteht eher darin, sich im entscheidenden Moment daran zu erinnern. Man sollte es aber tun, wenn man eine Situation akustisch bewertet (kann man hier drehen? War das jetzt gut? ...) und danach Entscheidungen trifft.

Moment Moment!

...kann man am Computer nicht unsere psychoakustischen Filter simulieren und die störenden Nebengeräusche tatsächlich einfach wegfiltern?

Eindeutig: Jein!

Es geht (noch?) nicht in der Präzision und Erfahrung, mit der unser Gehirn es kann. Man darf sich das so vorstellen: Der Prozess steckt derzeit in den Babypatschen, denn „Kinderschuhe“ wären übertrieben. Aber die Richtung ist klar: mit jedem neuen release von „Izotope Rx“, "Waves“ oder „Cedar“ schaffen meine Freunde in der Postproduktion neue atemberaubende Kunststücke, die ich vor wenigen Jahren ins Reich der Phantasie verbannt hätte. Diese Programme führen dazu, dass ich bei gleichbleibenden, relativ leisen und von der menschlichen Stimme deutlich unterschiedlichen Hintergrundgeräuschen wie z.b dem Surren einer Klimaanlage heute am Set deutlich ruhiger bleibe, als noch vor etwa 3 Jahren. Mit ein bisschen Aufwand können solche Geräusche tatsächlich so weit abgesenkt werden, dass sie trotz schneller Tonschnitte in der Wahrnehmung in den Hintergrund treten. 

Das Problem heute (2019) besteht jedoch darin, dass für komplexere Aufgaben nach wie vor die Filtermodule in einer sinnvollen Abfolge zu verschachtelten Prozessen kaskadiert werden müssen und die Parameter jedes einzelnen Filters in jeder einzelnen Situation auf Grundlage der Erfahrung des Soundeditors neu angepasst werden müssen. Da diese „Situationen“ oft nur Sekundenbruchteile lang dauern, ist der Arbeitsaufwand (= Kosten) immens und rechtfertigt nur in Ausnahmefällen den Aufwand, wirklich komplexe Filteranwendungen über längere Zeiträume zur Anwendung zu bringen, so wie unser Gehirn das in jeder Sekunde spielend schafft. Nicht zu reden davon, dass unser Gehirn nicht verstandene Sprachanteile automatisch ergänzt und dass zwischen "rudimentärer Sprachverständlichkeit" und "gut aufgenommener Sprache mit filterbaren Nebengeräuschen" ein großer Unterschied besteht.

Man sieht, ich verteidige meinen Arbeitsplatz:

Tonleute am Set haben den Job, all die störenden Geräusche vor der Aufnahme zu beseitigen, damit der Originalton sauber und bearbeitbar bleibt.
Stellvertretend für die späteren ZuhörerInnen setzen wir bewusst unsere psychoakustischen Filter außer Kraft und hören auf ALLE Töne, die am Set vorhanden sind. Kopfhörer und Mikrofone lassen uns die akustische Umgebung so erleben, wie sie später wiedergegeben wird. Mithilfe unserer Erfahrung am Set und unserem technischen Gerät nehmen wir bei der Aufnahme eine Gewichtung der Töne vor, damit nach einer aufwändigen Postproduktion der fertiggestellte Film wieder annähernd so klingen kann, wie es unseren Hörgewohnheiten entspricht.

Tonaufnahmen klingen anders, als die eigene Hörerfahrung

Du kannst als RegisseurIn wesentlich zum Gelingen Deines Originaltons beitragen, wenn Dir bewusst ist, dass sich viele „natürliche“ Sounds (wie zum Beispiel der Fahrtwind im Auto) bei der Wiedergabe über Lautsprecher in unangenehme Störgeräusche verwandeln, die Du im realen Leben nicht wahrnimmst, weil Du sie aktiv wegfilterst.

Mit der Entscheidung über die akustischen Gegebenheiten beim Dreh übernimmst Du Verantwortung für den Klang Deines Films. Es nützt Deinem Ton, wenn Du kurz Deine Akustikfilter abschaltest, bevor du eine tonrelevante Entscheidung triffst. Im Einzelfall hilft ein Blick zu Deinem/r TonmeisterIn. Ist er oder sie nicht greifbar, mußt Du abwägen, wie wichtig Dir in diesem Moment der Originalton ist.

Kommen wir auf die Wiese mit dem rauschenden Bach zurück: Unser Gehirn assoziiert mit dem BILD von plätscherndem Wasser "Frische", "Kühle" oder "Lebendigkeit". Das Rauschen des Baches im TON klingt wie "schschschsch", bei einer OFF-Bewegung des Mikros vielleicht auch ab und zu wie "chchchchch". Ein kurzes Schließen der Augen mit aufmerksamem Hören wird bestätigen, dass der KLANG eines rauschend Baches einem technischen "Rosa Rauschen" sehr nahe kommt und losgelöst vom Bildeindruck als massives Störgeräusch wahrgenommen wird. Und da dieses sehr viele Frequenzanteile und ein völlig zufälliges Verteilungsmuster hat, ist es auch für sehr ausgereifte Algorithmen schwierig zu filtern.