(zurück)
Sound und Film
Eine der ersten Erkenntnisse bei der anfänglichen Beschäftigung mit dem Thema Sound und Film ist diejenige, daß es reichlich wenig Erkenntnisse gibt, wenn man die Bedeutung bedenkt, die der Ton für den Film hat. Und diese wenigen Erkenntnisse werden noch geringer bei der
Betrachtung der Schnittstelle zwischen Produktion und Rezeption: der Übertragung des Tons in die Ohren der
Zuhörer und der daraus resultierenden Wirkung. Was im Theater unmittelbar, fast nur abhängig von der
Raumakustik und den deklamatorischen Fähigkeiten des Schauspielers erfaßt wird, verlangt beim Film einen
nicht geringen technischen Aufwand, um überhaupt wahrgenommen zu werden. Das jedoch vor allem in einer
Kategorie, die so im traditionellen Sprech- wie Musiktheater kaum eine Rolle spielt; einer Kategorie allerdings,
die für einen Großteil der produzierten Filme – das sind die Genrefilme – von wesentlicher
Bedeutung ist: die Geräusche.
Eine einfache Unterscheidung der Toninformationen eines Filmes ist –
nach Christian Metz (hier nach Monaco 1995, S. 215) – die Unterteilung in a) Dialog, b) Musik und c)
Geräusch (Toneffekte), wobei unter a) auch alle monologischen Formen des Sprechens wie überhaupt alle
Formen unmittelbar bedeutungstragenden Sprechens zu verstehen wären (ich bin geneigt, Formen menschlicher
Artikulation, die Ausdruck emotionaler Erregung sind wie Schreie, Lachen, Stöhnen usw., in die dritte
Kategorie einzuordnen wegen der Wirkung, die diese Töne auf den Rezipienten haben). Die Abhängigkeit von
den Reproduktionsbedingungen nimmt bei diesen Kategorien von links nach rechts ebenso zu wie ihre emotionale
Relevanz, während umgekehrt die intellektuelle Bedeutungsgenerierung beim Dialog am stärksten ist. So
ist etwa für die Erfassung der reinen kommunikativen Information die Tonqualität bei der Rede bis hin an
die Verständnisgrenze irrelevant. Anders sieht es allerdings schon hier bei den neben der Sprache
vermittelten Emotionen aus, die als Nuancenelemente nicht von den Prinzipien der abstraktiven Relevanz sowie der
apperzeptiven Ergänzung profitieren, wobei im Rahmen der apperzeptiven Ergänzung die Mimik des
Schauspielers eine gewisse Ausgleichsfunktion innehat. In ähnlicher Weise kann die Musik charakterisiert
werden: sie steht insofern dem Dialog nahe, als für ihre intellektuelle Bedeutung die Klangqualität kaum
eine Rolle spielt. Die diskursiven Elemente der Filmmusik werden auch in „Low-End“-Qualität
wahrgenommen, während die emotionale Wirkung hingegen wieder bestimmte, vor allem technische Bedingungen
ihrer Realisation erfordert. Wenn hier die Rede von „diskursiven Elementen“ der Musik ist, die
traditionell als am wenigsten diskursive Kunstform angesehen wird, so sind damit weder Formen von Programmusik
gemeint noch die beliebten Formen der Figuren- oder Ereignischarakterisierung durch Leitthemen und -motive (wie
etwa die Figurenthemen in
C’era Una Volta il West
(Ennio Morricone) oder die (selbstreferentielle) Anspielung auf
Raiders of the Lost Ark
in
Indiana Jones and the Last Crusade
durch die kurze Aufnahme des der Bundeslade zugeordneten musikalischen Motivs (John
Williams)). Im Film kann Musik eine Informationsvermittlung übernehmen, die in ihrer Eindeutigkeit (und auch
der emotionalen Wirkung) einem Zwischentitel vergleichbar ist: wenn z.B. in einem Film eine Gruppe schwarzer
Jugendlicher auf einer Straße gezeigt wird und dazu ein Gangsta-Rap gespielt wird, so beschreibt diese Musik
das sozio-kulturelle Milieu dieser Jugendlichen mit all den Klischees, die durch die häufige Verwendung
dieser Kombination für den durchschnittlichen Rezipienten selbstverständlich geworden ist. Musik ist
hier Code, dessen Bedeutung für den Zuschauer sofort einsichtig ist, gleich wie er emotional zu der Musik
steht bzw. welche Emotionen diese Musik bei ihm auslöst. Wo jedoch Musik als Code auftritt, ist ihre
klangliche Repräsentation unerheblich, da hier durch ihre in den Vordergrund tretende Informationsfunktion
die gleichen Bühlerschen Prinzipien wirksam werden wie bei der Kommunikation durch Sprache.
Eben das
gilt aber auch für das Geräusch: wo es zum informationsvermittelnden Code wird, ist es nur notwendig,
daß der Code in seiner Bedeutung als Code erkannt wird, um seine Funktion zu erfüllen (z.B. ein
Schuß). Allerdings spielt bei Geräuschen die Funktion als Code für eine Einzelinformation die
geringste Rolle; außer bei Informationen, die durch Geräusche im Off vermittelt werden, wird die
Codefunktion meistens durch visuelle oder dialogische Mittel mitrepräsentiert (oder sogar in vielen
Fällen überrepräsentiert, da die Redundanz vielleicht das am häufigsten eingesetzte Prinzip
ist, einen Film für ein weites Publikum verständlich zu machen).
Anders verhält es sich mit
der emotionalen Relevanz, wobei das Geräusch im Film eine andere Form von Emotionalität vermittelt bzw.
erzeugt als die Musik, deren Wirkung auf den Rezipienten als einfache, gerichtete Emotionalität bestimmt
werden könnte, da sie zumeist eindeutige Emotionen hervorzurufen bestrebt ist. Im Gegenzug müßte
dann die Emotionalität der Geräusche als komplexe, diffuse Emotionalität bezeichnet werden. James
Monaco verwendet den Begriff „akustisches Umfeld“ und verweist auf den Einfluß des akustischen
Umfelds in der „musique concrète“, beschränkt seine Betrachtung dann aber darauf, daß
„ein großer Teil des modernen Hörspiels“ „das ungeheure Potential dessen
erkannt“ hat, „was bisher ganz einfach ‘Toneffekte’ genannt wurde“ (Monaco 1995, S.
216). Was aber ist dieses „ungeheure Potential“? Es kann doch nur in der Wirkung liegen, die das
akustische Umfeld hervorruft, eben diese komplexe, diffuse Emotionalität, wobei der Blick auf die Wirkung des
Phänomens zugleich den Blick auf die technischen Reproduktionsbedingungen lenkt: mit einer vordergründig
naiven Gleichsetzung könnte man die Begriffe der Komplexität und Diffusion auf die Technik
übertragen, und – man gelangt tatsächlich zu Kategorien der technisch adäquaten Umsetzung
modernen Filmsounds.
Und spätestens an dieser Stelle tritt die eingangs erwähnte
Erkenntnislücke zutage: auf der einen Seite findet sich jemand wie James Monaco, dessen Standardwerk sich im
großen und ganzen umfänglich auch mit der technischen Seite dieser technischsten Kunstform
auseinandersetzt und der weiß: „Im Idealfall ist der Ton eines Films ebenso wichtig wie das
Bild.“ (Monaco 1995, S. 122), jedoch bei einer der entscheidendsten Formen der Sounddarstellung, dem Dolby
Stereo-System und seinen Verwandten, nur feststellt, daß der „Dolby-Schaltkreis das
Grundrauschen“ reduziere und „so den Tonbereich beträchtlich“ verbessere (ebd., S. 126), um
dann zu der etwas resignativen Einsicht zu gelangen: „nur Liebhaber legen auf leistungsfähige
Video-Audio-Anlagen wert, wie sie – trotz der bedeutenden ästhetischen Interdependenz von Bild und Ton
– beim breiteren Publikum noch keinen Anklang finden.“ (ebd., S. 478). Und daß, obgleich
wenigstens in der Phase der Post-Produktion eines Films etwa die Hälfte des Zeitaufwandes allein dem Sound
gewidmet ist. Auf der anderen Seite scharren sich die Redakteure der eher technisch (im Sinne von
Gerätetechnik) orientierten Zeitschriften unter dem George Lucas zugeschriebenen Diktum, daß der Ton
beim Film mehr als fünfzig Prozent der Wirkung ausmache, um dort zuerst in bester positivistischer Manier
über Dezibel, Grundrauschen, Leistung zu debattieren und dann in der Übertragung des Technischen auf die
Erfahrung im Nichtssagenden zu verharren: „Der Ton hingegen kann durchaus überzeugen. Dynamisch und
kraftvoll toben die Basketbälle durch den Raum.“ oder „... ist ein echtes Surround-Erlebnis.
Neben dynamischen Action-Szenen bestimmen vor allem atmosphärische Eindrücke den Film.“ und ein
letztes Zitat: „Die dröhnend-bedrohliche Musik von Howard Shore, der unheilvoll wabernde
Motor...“ (alles Zitate: Heimkino 5/94 und 6/94). Sogar in einer der wenigen Zeitschriften, dem
Video Watchdog , die sich nicht nur inhaltlich mit dem Film
auseinandersetzen, sondern auch mit der Form seiner Reproduktion, tritt die Qualität des Tones fast
vollständig hinter die Bewertung der Bildqualität (und ihrer Bedeutung für den Film als
künstlerischem Artefakt) zurück. Diese Kluft zeigt sich sowohl in der Theorie wie in der Praxis. Wie
viele Arbeiten und Theorien gibt es über den Schnitt, wie viele dagegen über den Soundschnitt; wie viele
Theorien gibt es über die Bedeutung der Montage für den Film als Kunstwerk, über ihre Wirkung auf
den Rezipienten, während es bei Fragen des Tons schon an den grundlegendsten Fragestellungen mangelt.
Etwa der, warum eigentlich ist der Ton überhaupt so wichtig? Oder: was passiert mit dem Film als
Einheit, wenn der Ton mangels angemessener Reproduktionsbedingungen nicht mehr die intendierte Wirkung hervorrufen
kann? Welche Möglichkeiten der Erzeugung angemessener Rezeptionsbedingungen gibt es? Welche Formen von
Wirkung durch Ton gibt es, welche Soundformen gibt es überhaupt? Wie ist das Verhältnis von Dialog,
Musik und Geräusch zu beschreiben, von was ist es abhängig? Und nicht zuletzt: was ist von einer
Filmkritik oder Filmwissenschaft zu erwarten, die die meisten Filme unter inakzeptablen Bedingungen (kleine
Festivalkinos, magere universitäre oder häusliche Videoeinrichtungen) rezipiert? Gerade mit dem Wissen,
daß die inakzeptablen Sound-Bedingungen bei den meisten Aufführungen überwiegen – und das
schließt die Kinos mit ein, die häufig den klanglichen Anforderungen nicht genügen –, wird
man tunlichst für die Technikbegeisterung mancher Zeitgenossen einiges Verständnis aufbringen,
wenigstens solange als in das Bewußtsein derer, die sich da über Film äußern, gedrungen ist,
daß für die Wirkung eines Films die angemessene Reproduktion des Sounds entscheidender ist als etwa die
Größe der Leinwand. Bevor sich hier noch etwas mit der Wirkung des Films beschäftigt wird (was im
Fall des Sounds emotionale Wirkung meint und darum zu einer Einschränkung des Filmkorpus vor allem auf den
Genrefilm, dessen erste Absicht die Erzeugung von Emotionen beim Rezipienten ist, führt), ist eine Abgrenzung
des Wirkungsbegriffs von einem, nach Lage der Dinge, unausrottbaren Unsinn notwendig: dem Begriff des Erlebens
bzw. Erlebnisses. So rekurriert der Slogan der Kinobetreiber: „Im Kino ist der Film am schönsten“
, wobei jeder in erster Linie – natürlich – an die Größe der Leinwand denkt, auf die
Vorstellung vom Film als Erlebnis, oder genauer: vom Filmbesuch als Erlebnis, wobei der Film, geht es nach den
Vorstellungen der Marketingexperten, zugunsten des Ambientes immer mehr in den Hintergrund gedrängt wird.
Letztlich spielt es gar keine Rolle mehr, was für ein Film oder nur welcher Film es ist, der da
präsentiert wird; die Präsentation wird zum Eigentlichen, der Film zum Anlaß – analog der
Entwicklung des Musiktheaters, wo sich am Musical eine ganze Erlebnisindustrie schadlos hält. (Paradoxerweise
greift die feuilletonistische Filmkritik beim Kino eben auf diese Erlebniskategorien zurück, z.B. „das
Eintauchen in eine andere Welt“ – erlebnisgerecht durch die psychoanalytische Entsprechung der
Regression in den Uterus –, die sie kurz zuvor an der Musicalindustrie gegeißelt hat.)
Dem ist
entgegenzuhalten, daß das Kino weder notwendig für eine angemessene Rezeption eines Films ist noch in
den meisten Fällen hinreichend. Das Erlebnis eines Publikums im vollbesetzten Kino, daß an den falschen
Stellen Reaktionen zeigt, ist für die Wirkung des Films eher kontraproduktiv. Auch die Dunkelheit oder das
sonstige Ambiente wirken sich eher auf die Begleitumstände aus als auf die Wirkung des Films. Anders
verhält es sich mit der Größe der Leinwand, wobei auch hier eine eher paradoxe Beobachtung zu
machen ist: die flächige Größe der Leinwand macht sich erst dann wirkend bemerkbar, wenn der
Zuschauer so nahe an der Leinwand sitzt, daß die Breite der Leinwand sein Blickfeld überschreitet und er
so zu einer Augenaktivität gezwungen ist, die zu einer Illusion räumlichen Sehens führt. In den
Kinos sind allerdings die teuersten und daher auch beliebtesten Sitze nicht etwa die wahrnehmungsphysiologisch
interessanten, sondern die Plätze hinten, wo in manchen Fällen die Leinwand nicht mehr ist als die
Reproduktion des heimischen Fernsehgerätes.
Im Gegensatz zu dieser eher marginalen Möglichkeit, die
Wirkung des Films durch die Erweiterung der flächigen in die räumliche Dimension zu intensivieren, steht
der Sound. Der entscheidende Vorteil und auch Grund für die seine Bedeutung (natürlich erst bei Filmen,
die im Dolby Stereo-System aufgenommen wurden) ist die räumliche Dimension des Tons, die den Rezipienten in
ein weitaus „erfahrungsnäheres“ Umfeld versetzt als eine noch so große Leinwand oder andere
Bildtricks (die Erhöhung der „Erfahrungsnähe“ etwa durch dreidimensionale Reproduktion der
Bilder wurde durch das ungewohnte Tragen der Polarisationsbrillen nahezu wieder eliminiert, von anderen Gimmicks
etwa eines William Castle nicht zu reden: immer wurde durch den fühlbaren Einsatz der Technik die intendierte
größere „Erfahrungsnähe“ wieder verhindert).
In diesem
„erfahrungsnäheren“ Umfeld, das bildhaft auch als Versetzen in eine andere, nicht realere!, Welt
verstanden werden kann, werden die Wirkungsmöglichkeiten der zielgerichteten Emotionsintentionen wenigstens
erhöht, wenn nicht sogar erst geschaffen. Berücksichtigt man jetzt noch die Ausrichtung des Genrefilms
auf emotionale Wirkung beim Rezipienten, so wird deutlich, warum der Sound eine solche Bedeutung für die
Wirkung des Films hat. Er ist dabei nicht so sehr selbst emotional wirksam, sondern eher als Umfeld emotionaler
Wirkung die Bedingung der Möglichkeit für die Wirksamkeit der anderen visuellen und akustischen
Filmmittel. Er ist in dieser Hinsicht diffus, weil er keine unmittelbare Zielrichtung hat, und komplex, weil die
Erzeugung des „erfahrungsnäheren“ Raumes sowohl Redundanzen wie auch Aussparungen
erfordert.
Von dieser kursorischen Annäherung an die Frage nach der Bedeutung des Geräuschs
für den Film kann hier – kurz – der Bogen zu den technischen Bedingungen für die Erzeugung
des „erfahrungsnäheren“ Raums geschlagen werden; zumal es wenigstens in dieser Hinsicht einen
Standard gibt, der objektive Bedingungen für angemessene Rezeptionsmöglichkeiten vorschreibt. (Die
tatsächliche Erfüllung der Möglichkeit hängt natürlich ebenso von den Fähigkeiten
der Sound-Spezialisten ab wie den individuellen Dispositionen des einzelnen Rezipienten, die allerdings hier nicht
berücksichtigt werden können, da sie als individuelle Erscheinungen der praktischen
Wahrnehmungspsychologie zugehörig sind.) Das Dolby Stereo-System beruht in seiner grundlegenden
Ausführung auf vier Kanälen: zunächst sind es die beiden aus der Musikreproduktion bekannten
Stereokanäle, die beim Film vor allem für die Musik und die Umgebungsgeräusche verwendet werden,
der dritte Kanal ist der Mitten- oder Center-Kanal für die Dialoge (die Lautsprecher werden hinter der
Leinwand plaziert und binden den Dialogton an die Akteure), und ein vierter Kanal für die Surround- bzw.
Effektlautsprecher (zu Hause meistens zwei, im Kino mehrere hintereinander gestaffelte Lautsprecher). Neuere
Entwicklungen, wie das AC-3-System, trennen den vierten Kanal für die Surroundlautsprecher in zwei
Stereokanäle und fügen einen weiteren Kanal für Effekte vor allem des Subwoofers hinzu. (Gerade der
Subwoofer in einer entsprechenden Lautstärke führt den akustischen Wahrnehmungen noch sensuelle hinzu:
erinnert sei an das Nahen des Tyrannosaurus Rex in Jurassic Park
oder der – nur kolportierte? – Einsatz des „Demutstons“ in
The Exorcist .) Weil diese technischen Eigenschaften allein
noch keinen optimalen Klangeindruck garantieren, hat George Lucas (eigentlich sein technischer Direktor bei
Lucasfilms, Tomlinson Holman) eine Norm entwickelt, die den Ton so reproduzieren soll, wie er ursprünglich
geschaffen wurde: THX. Zu dieser Norm gehören einmal Spezifikationen für die Geräte, aber auch
Anweisungen, wie die Lautsprecher aufzustellen sind, eine Referenzlautstärke usw. Die einzelnen technischen
Anforderungen sind hier nicht so sehr in ihrer Eigenschaft als Technik interessant vielmehr in den
dahinterstehenden Forderungen bzw. Vorstellungen von Klang. So sorgt die Dekorrelation des Surroundsignals
dafür, daß die Surroundlautsprecher nicht ortbar sind, wodurch ein diffuser Klangraum entsteht. Oder das
Re-Equalizing der Frontboxen (im Heimbereich), das die hohen Frequenzen etwas absenkt, wodurch der Dialogton
„realer“ wird. Insgesamt wird versucht, die Ziele, die bei der Produktion des Sounds maßgebend
waren, möglichst genau in verschiedenen Raumverhältnissen zu rekonstruieren, wobei aus den
Rekonstruktionsvorgaben das ursprüngliche Ziel, die Schaffung eines „erfahrungsnahen“ Tonraums,
ersichtlich wird. Die THX-Norm setzt also zunächst einmal einen Reproduktionsstandard für den schon
vorhandenen Sound, sagt aber ihrerseits – wie alle Technik – nichts über die Bedeutung, die
dieser Sound für den Rezipienten hat.
Eine weitere Überlegung zur Frage von Sound und Film muß
also an dem Begriff des „erfahrungsnahen“ Klangraums ansetzen. Oben wurde bereits angedeutet, daß
dieser entstehende Klangraum gerade kein realistischer ist, obgleich Tontechniker durchaus der Auffassung sind,
sie schüfen mit erstaunlicher Akribie zunächst einen „realistischen“ Sound. Ohne uns um
diese Selbsttäuschung weiter zu kümmern, macht die folgende Überlegung deutlich, daß ein
realistischer Sound logisch unmöglich ist: selbst ein Sound, der aus nichts als Originalton bestände,
wäre schon durch die Aufnahme nicht mehr „real“, denn allein die Anordnung (und technische
Funktion) der Mikrophone selektiert einzelne Momente aus dem Spektrum der Geräusche. Bestenfalls könnte
man von einem Eindruck von Realitätsnähe sprechen, aber selbst das scheint mir nicht ganz richtig, wenn
man die Intention des Films berücksichtigt. Es ist ja nicht die Gesamtzahl der (langweiligen)
Umgebungsgeräusche, die für die Wirkung eine Rolle spielt, sondern nur ein bestimmter Ausschnitt, und
zwar genau jener Ausschnitt, der benötigt wird, um eine atmosphärische Codierung zu erreichen. In einer
Großstadt-Straßenszene etwa sind die in der Realität vielleicht hörbaren Geräusche wie
Vogelgezwitscher irrelevant, weil sie nichts zur intendierten Atmosphärenwirkung beitragen. Ganz im Gegensatz
zu Autogeräuschen, dem Quietschen einer Straßenbahn oder dem Brummen eines Dieselmotors, die dann in
Filmen auch regelmäßig akustisch hervorgehoben werden. (Auch das Gegenteil ist häufig zu finden:
Schüsse (aus Kleinkaliber- und Kriegswaffen vor allem) zum Beispiel werden gemeinhin in der Lautstärke
gemindert, weil sie sonst für den Hörer schmerzhaft wären. Dagegen wirken die auch auf dem
Soundtrack reproduzierten Schüsse aus Pulp Fiction
gerade wegen ihrer realistischen Lautstärke paradoxerweise eher
comichaft.))
„Erfahrungsnah“ heißt also, daß eine durchaus diffuse, aber
nichtsdestoweniger codierte Umgebungserfahrung produziert wird; die Erzeugung von Sound-Räumen im Film
unterliegt der Vorgabe des „ein Eindruck von ...“; die Selektion, die das Gehirn des Rezipienten
ohnehin vornimmt, wird vorgesteuert, um eine spezifische Wirkung zu verstärken oder sogar erst die
Voraussetzung einer möglichen Wirkung zu schaffen. Daß sich trotz des selektiven Einsatzes von
Geräuschen bei den meisten Rezipienten ein „realitätsnaher“ Eindruck einstellt, ist vor
allem dem Prinzip verdankt, das als grundlegend für die Darstellungsweise des Genrefilms angesehen werden
kann: dem mimetischen Illusionismus. Dieses Prinzip, das seine Entsprechung beim Film vor allem in der Rede von
der „unsichtbaren Technik bei Hollywood-Filmen“ hat, fordert eine durchgängige Illusionierung des
Rezipienten, der durch kein Moment und in keinem Moment aus dem illusionistischen Kontext entlassen werden darf.
Das führt bei dem Geräuscheinsatz zur Erfahrungsnähe, die oberflächlich als
Realitätsnähe verstanden werden kann, weil Erfahrung und Realität des Rezipienten im Rahmen der
dargestellten Illusion eng beieinander liegen (müssen), zumindest wenn „Realität“ als
Realität innerhalb des dargestellten Kosmos verstanden wird.
In diesem Zusammenhang wird eine
Arbeitsweise bzw. Darstellungstechnik der Avantgarde deutlich: sobald etwa eine Diskrepanz zwischen Sound und Bild
(aber auch zwischen Dialog und Bild, Dialog und Geräusch, Handlung und Dialog, Musik und Bild usw.) auftritt,
wird die Illusionierung des Rezipienten durchbrochen und es treten andere Wirkungen auf: zunächst vielleicht
nur ein Gefühl der Verunsicherung, das sich allerdings bis zu einer intellektuellen Hinterfragung dieser
Diskrepanz in Hinsicht auf ihre Bedeutung steigern kann. Diese Wirkung ist vor allem dann interessant, wenn sie in
Genrefilmen oder dem Genrefilm nahen Filmen eingesetzt wird: in David Lynchs
The Elephant Man
bleiben im Geräuschbereich vor allem die Industrie- bzw. industrieähnlichen
Geräusche in Erinnerung. Eine Analyse des Films ergibt jedoch, daß diese atypische Geräuschkulisse
nur in einem quantitativ kleinen Teil des Films vorkommt: zu Beginn auf dem Jahrmarkt; bei der Operationsszene an
dem Unfallopfer; während des Gangs von Dr. Treves zum Jahrmarkt; nachts im Hospital; während Merricks
Traum von Maschinen; als sich der Pöbel zu Merrick aufmacht; auf dem kontinentalen Jahrmarkt und
schließlich bei der Ankunft Merricks in London. Es stellt sich also die Frage, warum diese Geräusche in
Erinnerung bleiben und was sie bedeuten. Versucht man wie Fischer diese Geräusche (und andere Elemente) als
„leitmotivisch auftauchende Hinweise auf die industrielle Revolution“ (Fischer 1992, S. 82), wie
Seeßlen als Verweis auf den „Beginn jener Industriewelt, deren Ende in ERASERHEAD beschrieben
war“ (Seeßlen 1994, S. 51) oder wie Kaleta als „the sounds of Victorian London: industrial,
modern and urban“ (Kaleta 1993, S. 62) zu deuten, so wäre damit gerade erklärt, warum sie
nicht
besonders auffällig wären. Als begleitende Geräusche der dargestellten Welt
konstituierten sie den „erfahrungsnahen“ Soundraum des Genrefilms ebenso wie Verkehrsgeräusche
einen Großstadtfilm oder das Klappern der Pferdehufe einen Western. Diese Konformität zwischen Bild und
Ton war in
Eraserhead
gegeben, wo die Industriegeräusche die bildlich dargestellte verrottende
Industrielandschaft in ihrer Wirkung unmittelbar unterstützten; in Hinsicht dieser atmosphärischen
Codierung ist
Eraserhead
ein Genrefilm.
The Elephant Man
spielt jedoch vor allem in (neutralen) Innenräumen, und auch die Außenszenen,
etwa der Jahrmarkt, sind nicht gerade typische Schauplätze industrieller Entwicklung. Hier entsteht ein
Kontrast, der gerade, weil er in einem ansonsten meist konventionellen Film auftritt, sich nachdrücklich im
Gedächtnis des Rezipienten festsetzt. Ohne auf die Bedeutung dieser Geräuschkulisse im einzelnen
einzugehen, sei doch wenigstens soviel angemerkt, daß hier in für den Genrefilm untypischer Weise die
Geräusche eine bedeutungsschaffende Funktion haben, die über ein Analogieverhältnis dem
Elephantenmenschen John Merrick eine ästhetische Qualität zuweisen, die zunächst nichts mit der
über die traditionellen Mechanismen (hier das
Hunchback-of-Notre-Dame -Prinzip: Mitleid mit der
verunstalteten, gequälten Kreatur) des Illusionismus vermittelten Wertung der Figur zu tun hat. Daß in
The Elephant Man
über Geräusche eine eigenständige Bedeutung konstituiert wird, und zwar
nicht über eindeutig codierte Geräusche, sondern über die diffuse Stimmung, weist in umgekehrter
Weise wie in
Eraserhead
darauf hin, mit diesem Film keinen reinen Genrefilm vorliegen zu haben.
Denn im
Genrefilm fügt sich allein der Einsatz von Musik an sich nicht dem Vorhaben, einen
„erfahrungsnahen“ Raum zu erzeugen. Interessanterweise ist es gerade die Musik, die durch die ihr
innewohnende emotionale Wirkungsmächtigkeit erheblichen Einfluß auf den Rezipienten hat, die – das
ist so banal, daß man es sich bewußt machen muß – den größten Kontrast zur
Erfahrungsnähe bedeutet. Wie sehr auch Bild, Handlung, Dialog und Geräusche im Einklang stehen: der
Einsatz von orchestraler Musik, wenn ein Raumschiff durchs All fliegt, eine Horde Indianer eine Wagenburg
angreifen oder ein Detektiv einen Verbrecher verfolgt, ist so absurd in seiner Kontrastivität, daß
eigentlich immer der Illusionismus durchbrochen werden müßte. Diese Absurdität wird bisweilen in
Komödien, beispielsweise in verschiedenen Variationen in Mel Brooks
High Anxiety , herausgestellt, wenn die agierenden Figuren
eben auf diese Begleitmusik reagieren, sie also in ihren Erfahrungsraum (und durch den Illusionismus den des
Rezipienten) hineinziehen. Hier wird auch dem Durchschnittsrezipienten das groteske Moment klar, aber es wirkt
sich nicht auf die Wirkung in anderen Filmen aus. Aus diesem Grund halte ich es für nicht ganz präzise,
wenn der Soundeinsatz in Filmen nach dem herkömmlichen Muster der Zweiteilung in begleitenden und
konträren oder „kontrapunktischen“ Ton, der auch Monaco folgt (vgl. Monaco 1995, S. 216f.),
vorgenommen wird. Dieses dualistische Schema trifft genaugenommen nur auf Geräusche und Dialoge zu; Musik ist
immer kontrastiv, sofern sie nicht als Umgebungsgeräusch direkt aus der Szene entstammt. Allerdings sind
sowohl bei dem „normalen“ Musikeinsatz wie dem als Umgebungsgeräusch wieder Unterscheidungen zu
treffen. Trotz des grundsätzlichen Kontrastes läßt sich ja nicht leugnen, daß zumindest im
Rahmen des Genrefilms die programmatische „Begleitmusik“ nahezu immer eine begleitende und die
emotionale Wirkung unterstützende oder sogar erzeugende Funktion hat; sie wirkt sogar stärker emotional
zielgerichtet als alle anderen Elemente (in dieser emotionalen Zielgerichtetheit liegt wahrscheinlich der Grund
für ihre Wirkung im Erfahrungsraum trotz des Widerspruchs zum Erfahrungsraum des Rezipienten). Daneben (und
darauf zielt wohl die herkömmliche Unterscheidung) gibt es den Musikeinsatz, der „kommentierend,
asynchron und dem Bild entgegengesetzt“ (ebd.) ist. Hier ist wieder in erster Linie an den Avantgarde-Film
zu denken, wenigstens fällt mir außer einem drittklassigen Horrorfilm kein Genrefilm ein, wo das
Geschehen (im Beispiel: das Scheitern der Protagonisten wird mit einem triumphalen Score unterlegt; ein
Produktionslapsus) durch die Musik kontrastiert würde. Eine dritte Möglichkeit wäre in der
Choreographie der Bilder, die durch die Musik vorgegeben ist, zu sehen. Dabei können erhebliche Kontraste
zwischen Bild und Musik an sich auftreten, die in der choreographischen Einheit allerdings aufgehoben sind
(Beispiele wären etwa Beethovens 6. Symphonie „Pastorale“ und der Tanz der Zentauren in
Fantasia
oder die Verbindung einer um die Erde kreisenden Raumstation mit Strauß’ Walzer
An der schönen blauen Donau
in Kubricks
2001: A Space Odyssey ).Aber auch im Bereich der Musik als
Umgebungsgeräusch (das meint eine Musik, die aus dem Geschehen in der Szene entstammt, z.B. ein laufendes
Radio, Musik in einer Konzertsaalszene während einer Aufführung) kann man die Trennung in begleitend und
kontrastiv unternehmen. Rein begleitend wäre jede Verwendung zu nennen, wo Musik ihrem Einsatz nach nicht
mehr als ein weiteres Umgebungsgeräusch ist, obgleich natürlich die Musik auch in dieser Form ihre
emotionale Funktion behält; rein kontrastiv als Umgebungsgeräusch in Fall eines Auseinanderfallens von
emotionaler Qualität und szenischer Darstellung (z.B. ein Liebeslied im Radio, während ein brutaler Mord
geschieht). Dann gibt es komplexere Verbindungen, für die erneut David Lynch prägnante Beispiele
liefert: so hört der Detektiv Farragut in Wild At Heart
während seiner Autofahrt im Autoradio (wahrscheinlich) Thems
Baby Please Don’t Go , was sowohl begleitender Einsatz
als Umgebungsgeräusch ist wie als Charakterisierung Farraguts nicht-kontrastive „Begleitmusik“
wie auch als Reflex auf die Mordabsprache von Lulas Mutter mit Santos ironische Kommentierung – hier auf
einer eher intellektuellen Ebene. Bei der Verbindung von Chris Isaaks Wicked
Game
mit Sailors und Lulas nächtlicher Fahrt (ebenfalls
Wild At Heart ) finden sich zugleich Begleitung und
ironischer Kontrast auf eher emotionaler Ebene. Eine weitere Möglichkeit ist der Übergang von Musik als
Umgebungsgeräusch zu „Begleitmusik“ bzw. Eigenständigkeit. In diese Kategorie wären als
Sonderfall die Musicals einzuordnen, wo die Musik zwar aus der Umgebung entsteht, dann aber eine
Eigenständigkeit entwickelt, der sich Handlung und Bilder unterordnen (hierin eine Ähnlichkeit zum
Bilder bestimmenden Einsatz von „Begleitmusik“). Weiterhin gibt es die Möglichkeit, bestimmte
Musikstücke sowohl als Umgebungsmusik wie auch als eigenständig begleitende oder kommentierende Musik zu
verwenden. Auch hierfür wieder ein Beispiel aus Wild At Heart: Der einleitende Teil von Slaughterhouse
der Gruppe Powermad erklingt zunächst bei der Tötungsszene am Beginn des Films
in Form von „Begleitmusik“ ebenso wie in der Szene, als Lula Sailor vom Gefängnis abholt, und der
darauffolgenden Liebesszene. Dann ist dieser Ausschnitt als Umgebungsmusik beim Tanzen zu hören: die
„Begleitmusik“ wird in die Szene integriert, ist jedoch beim nächsten Einsatz (wieder Straße
mit anschließendem Sex) erneut „Begleitmusik“. Dann sucht Sailor im Autoradio nach Musik und
findet eben wieder
Slaughterhouse : Umgebungsmusik, die während der
folgenden Gewalt-Tanz-Performance nahtlos in „Begleitmusik“ übergeht, die durch Strauss’
Im Abendrot
als „Begleitmusik“ abgelöst wird. (Die Bedeutung ist naheliegend:
Töten, Tanz und Sex werden als ekstatische Erfahrungen miteinander in ihrer Wertigkeit verknüpft.) Hier
erhält die Musik eine besondere Funktion der Bedeutungscodierung, die nicht aus ihrer speziellen Eigenart
resultiert, sondern aus der Form der Verknüpfung. Ein Gegenbeispiel ist das wohl prominenteste Geräusch
in
Wild At Heart : das Entzünden des Streichholzes und das
Anzünden der Zigarette, die klingen wie eine Explosion und die darauf folgende Feuersbrunst. Allerdings ist
hier keine eindeutige Bedeutungscodierung festzustellen: weder als „rhythmisierende Elemente“
(Seeßlen 1994, S. 117) noch als „Verbindungsglied zwischen Sailor und Lula“ (Lynch, zit. nach
Fischer 1992, S. 200) noch als Verweis auf den Mord an Lulas Vater oder Gefahr ganz allgemein trägt dieses
Motiv. Naheliegender wäre eine Beschreibung als absolute Metapher, als selbstreferentielles Gebilde, dem
seinerseits im Kontext des Films wieder eine dezidierte (und auch einsichtige) Bedeutung zukäme, wenngleich
es für sich selbst weder informationsvermittelnder Code noch Bestandteil atmosphärischer Codierung,
jener beiden Funktionen des Geräuscheinsatzes im reinen Genrefilm, ist. Schon diese beiden Beispiele
verdeutlichen, daß es bei der Frage nach der Bedeutung des Sounds nicht nur auf die Bedeutung des
singulären Tonereignisses ankommt, sondern auch auf die Form der Kombination sowohl innerhalb einer
Tonkategorie als auch der Kategorien untereinander. Demgegenüber steht bei der Frage nach den
Wirkungsmechanismen eher das einzelne Ereignis im Vordergrund, da es, um wirkungsfähig zu sein, seine
emotionale Relevanz unmittelbar und auch weitgehend unabhängig von den Umgebungsbedingungen entfalten
können muß. Im Idealfall kann ein einziges Geräusch (oder ein eng zusammengehöriger
Geräuschkomplex) ebensogut wie begleitende „Begleitmusik“ die gesamte atmosphärische
Codierung leisten (man denke hier zum Beispiel vor allem an die Erzeugung von Ekel, sei es durch das glitschige
Geräusche verursachende Augenreiben Marys in Eraserhead, den Griff des Unfallopfers an oder in den Kopf in Wild At
Heart
oder das Aufspießen des Gegners und sein anschließendes Herunterrutschen an der
Lanze im Prolog von Coppolas
Dracula ). Gerade das letzte Beispiel zeigt aber noch einmal
die Notwendigkeit technisch angemessener Rezeptionsbedingungen: im „Erlebnisraum Kino“ war von diesem
Geräusch, das die unangenehme Brutalität der scherenschnittartig dargestellten Schlachtszene erst voll
zur Geltung bringt, nichts zu hören …
Literatur
Robert Fischer: David Lynch. Die dunkle
Seite der Seele. München 1992.
Kenneth C. Kaleta: David Lynch. New York [u.a.] 1993.
James Monaco:
Film verstehen. Kunst, Technik, Sprache, Geschichte und Theorie des Films und der Medien. Überarb. u. erw.
Neuausg. Reinbek 1995.
Georg Seeßlen: David Lynch und seine Filme. Marburg [u.a.] 1994.
Heimkino
5/94, S. 82; 6/94, S. 86.
(zurück)