Mastering-Workflows für die objektbasierte Musikproduktion

Acht Experten berichten

Text: Julius Segeler – Bilder: Archiv

Block 1

„Und, was ist eigentlich bei deiner Untersuchung herausgekommen? Ist Mastering für 3D-Musik notwendig?“, fragte mich kürzlich ein ehemaliger Kommilitone. Richtig auf den Punkt konnte ich ihm diese Frage nicht beantworten. Vielleicht steckte ich etwas zu tief in der Materie, jedenfalls schien es mir unmöglich, eine Antwort in wenigen Sätzen zusammenzufassen. Aber gehen wir erstmal ein paar Schritte zurück: Ich habe acht erfahrene Misch- und Mastering-Ingenieure zum Thema „Mastering für 360-Reality-Audio und Dolby Atmos Music“ interviewt und die Anforderungen und Potenziale von Mastering für 3D-Musik untersucht.

Block 2

Object based audio – production and playback
Object based audio – production and playback

Ein Master einer objektbasierten Produktion enthält Betten, Objekte und Metadaten und kann flexibel auf verschiedenen Lautsprecher-Layouts wiedergegeben werden; die Summierung findet also erst im Renderer des Abspielgeräts statt. Bei kanalbasierten Produktionen hingegen wird im Mastering meist mit Lautsprechersignalen gearbeitet, weshalb traditionelle Mastering-Workflows sich nicht direkt auf das Mastering von 360-Reality-Audio und Dolby Atmos Music übertragen lassen. Deshalb wurden in den letzten Jahren neue Konzepte und Workflows für das Mastering von 3D-Musik entwickelt, die ich bei meiner Untersuchung erkunden wollte. Und da 3D-Musik häufig ohne ein dediziertes Mastering – also direkt nach der Mischung – veröffentlicht wird, war es mir dabei wichtig, auch die Perspektive der Mischenden einzufangen.

Die acht Experten

Dale Becker

David Merkl

David Merkl arbeitet als Toningenieur und Musikproduzent bei den msm-studios in München und Berlin. Zu seinen musikalischen Referenzen gehören Produktionen für Yello, Max Cooper, Herbert Grönemeyer …

Eric Horstmann

Eric Horstmann wurde 2012 beim Bau des ersten Dolby-Atmos-Kinos Deutschlands hinzugezogen. Anschließend arbeitete er bei AVID, wo er unter anderem an der Pro Tools-Dolby-Atmos-Integration …

Eric Schilling

Eric Schilling ist 7-facher Grammy-Gewinner und hat mit Größen wie Elton John, Shakira, Julio Iglesias und Gloria Estefan gearbeitet. Seit 3 Jahren hat er sich auf das Mischen von 360-Reality- …

Hans-Martin Buff

Hans-Martin Buff war als Toningenieur und Musikproduzent bereits für Künstler*innen wie Prince, Mousse T. und die Scorpions tätig. Zuletzt mischte Buff die Dolby-Atmos-Version von Peter Gabriels …

Herbert Waltl

Justin Gray

Justin Gray arbeitet als Musikproduzent, Mischtonmeister und Mastering-Ingenieur und besetzt eine Professur am Humber College. Er arbeitete bereits für Mother Mother, Snoop Dogg oder Olivia Rodrigo …

Michael Romanowski

Michael Romanowski ist 5-facher Grammy-Gewinner, zu dessen Referenzen unter anderem Prince, Al Green und Alicia Keys zählen. Er hat seine Karriere im Live-Sound begonnen und erarbeitete sich …

Stereo-Erstproduktionen

Meistens geht einer 3D-Musikproduktion eine Stereoproduktion voraus; es hat also bereits eine Mischung und ein Mastering in Stereo stattgefunden. Die angelieferten Tonspuren für die 3D-Mischung solcher – nennen wir sie – „Stereo-Erstproduktionen“ sind typischerweise Stems aus der Stereomischung, welche einzeln den Summenbus des Stereomasterings durchlaufen haben, um klanglich so nah wie möglich an der Stereoversion zu liegen. „But often not as close as I wish!“, scherzt Justin Gray (Snoop Dogg, Olivia Rodrigo, Mother Mother).

Justin Gray trägt viele Hüte und wurde von mir in erster Linie in seiner Rolle als Mastering-Ingenieur befragt. David Merkl (John Williams, Herbert Grönemeyer, Boris Blank) ist ebenfalls Misch- und Mastering-Ingenieur und erzählt: „Bei Produktionen, bei denen beispielsweise ein Major-Label schon einen fertigen Stereo-Mix vorliegen hat, gibt es das Briefing: ‚Macht bitte eine Atmos-Mischung und bewegt eure künstlerische Intention nicht so weit weg von der Stereomischung!‘“ Und auch die anderen Experten berichten mir, dass sie bei Stereo-Erstproduktionen weniger ihren eigenen ästhetischen Präferenzen, sondern vor allem der klanglichen Vorgabe des Stereomasters folgen. „And that means levels, tonality, dynamic range, impact, everything“, erzählt Gray und führt weiter aus: „The artist and everybody involved has already poured their heart into what that is. And so, needing to change it is unnecessary.“

Als ich Mastering-Ingenieur Dale Becker (SZA, Doja Cat, Flume) nach seiner Arbeit an Tyler, the Creators Album Flower Boy, frage, nennt er außerdem die Erwartungen der Zuhörenden als Grund dafür, nicht zu weit von der Stereoversion abzuweichen: „So that album was such a classic already, and it had hundreds of thousands of hours of listening experience, the music culture and his fans already knew this album very intimately, listening to it multiple and multiple times.“

Ein Nachteil an der Arbeit mit Stems ist, dass diese bereits Bearbeitungsentscheidungen enthalten, die für Stereo getroffen wurden und den klanglichen Spielraum limitieren. Mastering-Ingenieur Michael Romanowski (Al Green, Alicia Keys, Tom Petty) führt aus, dass die einzelnen Elemente sich in Stereo gegenseitig stärker maskieren als in 3D, weshalb in Stereo oft starke Eingriffe mit EQs und Kompressoren vorgenommen werden, um den einzelnen Elementen den nötigen Platz zu geben. Die Interviewten halten solche Eingriffe in 3D oft für zu stark, da hier bereits subtilere Veränderungen hörbar sind.

3D-Erstproduktionen

„Das größte Problem, das ich momentan sehe, wenn ich jetzt mal ein Problem ansprechen darf, ist, dass die Künstler von diesem Format noch nichts wissen“, erzählt der Mischer Eric Horstmann (Moderat, Shirin David, Robin Schulz).

3D-Musik, da sind sich die Interviewten einig, entfaltet erst dann ihr volles künstlerisches Potenzial, wenn sie für das Format komponiert und produziert worden ist. Schilling, Romanowski und Buff verweisen auf Beispiele aus der Übergangszeit von Mono- zu Stereoproduktionen. Der Mischer und Musikproduzent Hans-Martin Buff (Prince, Scorpions, Peter Gabriel) sagt: „Wenn man sich von den meisten Beatles-Platten die Monoaufnahmen anhört, sind das ganz klar die besseren.“ Als weiteres Beispiel nennt er die Pink-Floyd-Alben aus den 70ern, die in Stereo produziert wurden. „Wenn man da auf Mono schaltet, dann klingt es nicht gut, [...] also die Darstellungsform des Stereos ist Teil des künstlerischen Ausdrucks“.

Herbert Waltl (Ray Charles, Stewart Copeland, God Of War OST) arbeitet als Musikproduzent oft direkt mit Künstler*innen zusammen und sagt: „When you write a song or compose a large scale orchestral piece, you should think in 3D from the very beginning. That would be ideal.”

Block 6

„Klar ist, dass du andere Entscheidungen triffst, als wenn du fertig vorgemischte Stems bekommst, die vielleicht schon komplett tot-komprimiert sind“, erzählt Eric Horstmann. „In Sachen Dynamik zum Beispiel, weil du bei Stereomischungen mit Maskierungen zu kämpfen hast und die Elemente Platz haben müssen. Diese Probleme hast du bei Atmos nicht.“ Bei 3D-Erstproduktionen können die Tonschaffenden ihren eigenen ästhetischen Präferenzen folgen, das betrifft auch Parameter wie die Klangfarbe oder die räumliche Platzierung von Klangelementen. Daher ist die Ähnlichkeit zu traditionellen Misch- und Masteringprozessen bei 3D-Erstproduktionen größer als es bei Stereo-Erstproduktionen der Fall ist, bei denen nicht die eigene Intention das Klangideal bildet, sondern die Stereoversion als Referenz dient.

Block 7

Hans-Martin Buff arbeitete letztes Jahr an Peter Gabriels aktuellem Album I/O, dessen Songs parallel in Stereo und Dolby Atmos Music gemischt wurden. Buff arbeitete also nicht mit bereits gemasterten Stereo-Stems, sondern mit allen Einzelspuren. Im Interview erfahre ich, dass er häufig bereits bei der Aufnahme extra Mikrofone aufstellt oder in einem zusätzlichen Schritt ergänzende Inhalte für die 3D-Version produziert, um „von einem ‚Vorne-Erlebnis‘ zu einem ‚Überall-Erlebnis‘“ zu gelangen. Seine Produktionen unterscheiden sich klanglich also von den Stereoversionen. „Da sind in der Stereo-Version zwei akustische Gitarren, die den Teil des Songs prägen, was in Stereo wunderbar funktioniert. Aber in 3D eben nicht. Dann nehme ich halt nochmal sechs akustische Gitarren auf, sodass plötzlich die Bude voll steht“, erzählt Buff.

Dass Künstler*innen und Labels ihre Prozesse so umstellen wie Peter Gabriel, wird aber noch seine Zeit brauchen, vermuten die Experten. „It would be very cool to start with the immersive, but it’s going to be a while before that takes over with artists, which would be the driving force of which format is preferred”, erzählt Dale Becker.

Album-Mastering

Ein wichtiger Aspekt des Masterings ist das Anpassen der einzelnen Titel auf einem Album, sodass beim kontinuierlichen Durchhören ein homogener Klang und ein runder Gesamteindruck entsteht.

Dale Becker legt beim Mastering von Alben einen besonderen Fokus auf dramaturgisch-sinnvolle Lautheiten der einzelnen Titel. Er bringt auch die Klangfarben und Räumlichkeiten der Songs näher zusammen und sucht dabei nach einer guten Balance zwischen zwei aufeinanderfolgenden Titeln. „I typically try to bend each of those song-ends and -beginnings toward each other so that in the end the listener can feel like they’re kind of in the same space”, so Becker. Romanowski legt, nachdem er die Lautstärken der Songs eingestellt hat, Effektketten an, mit denen er die verschiedenen Songs bearbeitet. Typischerweise entspricht die Anzahl seiner Effektketten der Anzahl der Mischenden des Albums: „[...] four different mix engineers on a project and they all have different approaches. I‘ll have to have a different approach too“.

Block 9

Bei Dolby Atmos Music wird der lauteste Song auf die Lautheitsobergrenze von -18 LUFS gebracht, und die leiseren Songs müssen in ihrer Lautstärke bzw. Lautheit abgesenkt werden. Becker erzählt, dass dafür eine feinfühlige Kommunikation zwischen ihm und den Mischenden notwendig ist, da diese oft nicht wollen, dass ihre Mischungen im Mastering leiser gemacht werden.

Wenn Mischer Eric Schilling (Elton John, Shakira, Gloria Estefan) ganze Alben mischt, etabliert er oftmals ein ähnliches Sounddesign für die verschiedenen Songs. So bekommt das Album einen konsistenten Klang, und Schillings Mischprozess wird beschleunigt. Als Beispiel für so eine Vorgehensweise nennt er den Soundtrack für das Spiel God of War, welches er mit seinem Partner Herbert Waltl in 360-Reality-Audio gemischt hat. Das Album besteht aus 29 Cues, wobei ähnliche Instrumentationen verwendet wurden und musikalische Themen sich wiederholen.

Übersetzbarkeit

Ein weiterer Kernaspekt des Masterings ist es, die konsistente Wiedergabe auf verschiedenen Abspielsystemen zu garantieren und dabei die künstlerische Intention zu erhalten. Aus diesem Grund kommen bei der 3D-Musikproduktion neben hochkalibrierten Lautsprechersystemen auch Heimkinoanlagen, Soundbars und oftmals noch verschiedene Kopfhörer zum Einsatz. Die Interviewten betonen, dass insbesondere der Klang der Apple-Spatial-Binauralisierung wichtig ist, da auf Apple Music zurzeit die größte Zuhörerschaft erreichbar ist. „To me, probably the most important format currently is what Apple is playing back on AirPods”, so Becker.

Da Apple, Dolby und Sony ihre Binauralisierer von Zeit zu Zeit verbessern und updaten, was sich dann auch nachträglich auf den Klang bereits veröffentlichter 3D-Master auswirkt, verlassen sich die Interviewten aber in erster Linie auf die Lautsprecherwiedergabe als Referenz. „Every Thursday, you get something new. So if I have mixed something on headphones six months ago, and they're updating the binauralizer later, I'm screwed.”, scherzt Herbert Waltl. Die Herausforderung besteht darin, den richtigen Kompromiss zu finden, denn die binaurale Kopfhörerwiedergabe des 3D-Masters klingt oft nicht genau so wie über Lautsprecher.

„So you might be inspired to, let’s say, reduce that high mid siblings or maybe darken the binaural. But then you come back to your speakers and say: ‚Yeah, but this is just totally too dark now‘“, erzählt Justin Gray. „You have to make adjustments for one playback system, and maybe even take away from what sounds best on another playback system to kind of find the best of both worlds“, ergänzt Becker, und Hans-Martin Buff sagt: „Idealerweise macht man einen Mix für das Format, in dem es dann am Schluss gehört wird.“ Dass bei 360-Reality-Audio und Dolby Atmos Music eine einzige Mischung angefertigt wird, die dann vom Renderer auf verschiedene Lautsprecheranordnungen oder binaural auf Kopfhörer gerendert wird, empfindet er nicht als die richtige Herangehensweise, da solch eine kompromissbehaftete Mischung nicht so gut klingen kann wie eine Mischung, welche dediziert für ein Format erstellt wurde, also zum Beispiel, eine originäre binaurale Kopfhörermischung. „Idealerweise hätte ich ein Paket mit diversen fertigen Möglichkeiten, 7.1.4-Mix, Stereo-Mix, Binaural-Mix“, führt er aus und erwähnt als positives Gegenbeispiel die MPEG-H Authoring Suite vom Fraunhofer IIS, da sich damit unterschiedliche Presets mit verschiedenen Mischungen erstellen lassen.

Dynamik

Eric Horstmann beschreibt beim Thema Dynamik ein lustiges Sinnbild: „Wir schaffen es damit, den kleinen Kids mal wieder zu erklären, was Dynamik ist, und legen nicht immer nur fertig gepresste Stereowürstchen auf den Grill.“

Die Experten berichten einstimmig, dass sie für ihre 3D-Produktionen tendenziell eine größere Dynamik anstreben als für ihre Stereoproduktionen. Sie sehen darin den Erfolgsschlüssel von immersivem Audio. Gray meint beispielsweise: „Immersive audio is an opportunity for listeners to experience dynamic music while still retaining immense impact because it’s just a fundamentally different experience.“ Er betont, dass sich eine Lautheit von -18 LUFS in Stereo je nach Genre sehr leise anfühlen kann, während die gleiche Lautheit bei einem 3D-Master sehr robust wirkt.

Eine große Dynamik verstärkt außerdem die Erfahrung von Dreidimensionalität, weshalb eine starke Dynamikbegrenzung in 3D-Musik weniger notwendig ist als in Stereomusik. „The reason that something behind us or beside us or above us draws our attention or makes something feel exciting or, you know, the momentum in the mix is augmented by dynamic range“, so Gray.

Block 12

Wie dynamisch ein Song gemischt und gemastert wird, hängt aber letztendlich von den Wünschen der Kund*innen ab. Romanowski erzählt, dass die übermäßig starke Kompressionsästhetik in Stereomusik die Musikalität und Natürlichkeit beeinträchtigt. „We end up compressing it to pull quiet things forward, so we can hear the subtleties, but we’re making it more dense and less subtle and less expressive, less human.“ Die Interviewten äußerten die Hoffnung, dass Künstler*innen, wenn sie mehr Musik direkt für 3D produzieren würden, auf solche Kompressionsästhetiken verzichten würden.

Für Hans-Martin Buff bietet 3D-Audio außerdem die Möglichkeit, Kontraste zwischen leise und laut effektiver als in Stereo einzusetzen: „Es gibt durchaus Momente, wo ich bewusst die Welt kleiner mache, um die Aufmerksamkeit zu lenken, und sie dann wieder explodieren lasse“. Becker erzählt, dass seine Dolby-Atmos-Master typischerweise etwas „cleaner“ sind als seine Stereomaster, da er aufgrund der Lautheitsobergrenze von -18 LUFS weniger Kompression und Limiting einsetzt. „And you have a lot of aggression and forwardness and a lot of limiting and clipping. In Atmos, those things aren’t necessary, because we have this top ceiling.“

Block 13

When normalizing the loudness of two songs to -18 LUFS, the dynamic song will still have sections that are significantly louder than the less dynamic song, even though their overall loudness levels are matched.
When normalizing the loudness of two songs to -18 LUFS, the dynamic song will still have sections that are significantly louder than the less dynamic song, even though their overall loudness levels are matched.

Drei der Experten betonen, dass Lautheitsnormalisierung essenziell für die Konkurrenzfähigkeit von 3D-Musik ist. Wie bereits erwähnt, bringt sie jedoch auch ihre Schwierigkeiten mit sich, und einige der Interviewten halten die Lautheitsnormalisierung mit integrierten Lautheiten nicht für ausreichend ausgereift. „It is very difficult if you are releasing a high energy dance or rock track to have it feel as loud as some other releases that have more dynamics and are released at the same integrated volume“, so Becker.

Summenbearbeitung

Die Summenbearbeitung ist sowohl in der Stereomischung als auch im Stereomastering eine gängige Herangehensweise, um die einzelnen Elemente miteinander zu verschmelzen und so eine dichtere Klangästhetik herzustellen. Wie ich bereits eingangs beschrieben habe, findet die Summierung von Signalen bei objektbasierten Formaten erst im Renderer statt, weshalb Tonschaffende sich andere Herangehensweisen überlegen mussten, um in 3D alle Spuren gemeinsam zu bearbeiten. Dafür nutzen sie zum Beispiel eine erstmals von Ruben Cohen beschriebene Methode, bei der ein Sidechain-Signal aus allen Signalen erstellt wird, welches Kompressoren in allen Kanälen triggert.

„Rein klanglich ist das für das Pop-Genre sehr wichtig, und für die Hörerwartung, die die Leute haben“, erzählt Hans-Martin Buff. Dass er tatsächlich alle Spuren gleich behandelt, kommt aber selten vor. Stattdessen nutzt er ein System, bei dem er verschiedene Spuren unterschiedlich stark bearbeiten kann. „Vorne muss es knackiger sein als hinten, oben muss es eigentlich gar nicht knackig sein, da kommt so eine Luftigkeit dazu.“ Buff legt für diese verschiedenen Zonen jeweils statische Objekte an, auf denen dann Signale summiert werden. Wenn er beispielsweise mehrere Stereosignale oben links und rechts positionieren möchte, summiert er sie auf einer Aux-Spur, welche dort positioniert ist. Auf der Aux-Spur können dann diese Signale gemeinsam bearbeitet werden, wie auf einem traditionellen Stereobus. Auch andere Ingenieure berichten mir, dass sie selten alle Spuren gleichermaßen komprimieren, da dies häufig nicht ihrer angestrebten Klangästhetik dient.

In den letzten Jahren wurden einige interessante Software-Kompressoren für 3D-Audio auf den Markt gebracht, die teilweise auch von den Interviewten genutzt werden. Dazu gehören beispielsweise MDWDRC3, PSP auralComp oder HoRNet SAMP. Dennoch sehen die Experten hier weiterhin viel Entwicklungspotenzial.

Mixing versus Mastering

So weit so gut, aber was ist denn jetzt der Unterschied zwischen 3D-Mischung und 3D-Mastering?

„Grundsätzlich würde ich jetzt mal ganz plakativ und polarisierend sagen: Mastering, so wie du es in der Stereo-Welt kennst, gibt es nicht. Das mögen andere vielleicht anders beurteilen, aber bei mir gibt es das in der Form nicht“, sagt Eric Horstmann. „Endschliff, Konfektionierung, Anpassung für die verschiedenen Abspielsituationen, klar, machen wir das auch, aber wir greifen noch viel mehr inhaltlich ein, vor allem, wenn es um die räumliche Anpassung geht. Und da hat man doch mehr Einfluss im Sinne von Mischen als im Sinne von Mastern“, führt er aus und begründet so, warum er sich eher als Mischer und weniger als Mastering-Ingenieur betrachtet.

Eines der Credos von Justin Gray ist es, beim Mastering immer den Weg des geringsten Widerstandes zu gehen, um ein Problem zu lösen: „You should only do something because it serves the music.“ Für ihn bedeutet das, in der Regel mit Stems oder Einzelspuren zu arbeiten, da er die Anpassung eines einzelnen Objekts in Lautstärke oder Klangfarbe als subtiler empfindet als das Anpassen aller Spuren gemeinsam. „If I set a compressor to a peaky snare drum or percussion or a really loud orchestral moment, I don’t want that to be ducking my reverb in the height channels by 3 dB. It sounds awful. It just sounds bad.”

Block 16

Für Michael Romanowski ist der wichtigste Aspekt des Masterings eine unvoreingenommene Perspektive, von ihm als der „10000-foot-view“ bezeichnet, auf eine Produktion zu haben. „I’m here to make you sound more like you when you leave, than you did when you came, because my job is to support you, not turn you into me“, erzählt Romanowski, und obwohl er damit die gleichen Ziele verfolgt wie Gray, hat er eine gänzlich andere Herangehensweise. Er vermeidet das Mastering von Stems, weil es Eingriffsmöglichkeiten bietet, die er nicht in seinem Aufgabenbereich oder dem ihm erlaubten Handlungsspielraum sieht. „If you’re mastering stems, you’re mixing“, so Romanowski. Deshalb löst er Probleme mit einzelnen Spuren durch die Kommunikation mit den Mischenden und Künstler*innen, bevor er mit seiner eigentlichen Arbeit beginnt. Er, Buff und Schilling betonen, dass im Mastering nicht an der Balance der einzelnen Elemente gearbeitet werden sollte, weshalb sie sich gegen Stem-Mastering aussprechen. „Und deswegen meine Skepsis, dass das Mastern ist, weil man ja im Prinzip dann diese Einzelteile nochmal angehen kann und das vielleicht auch tut“, erzählt Buff.

Block 17

Auch Merkl vermeidet das im Mastering. Es gibt jedoch Spezialfälle, „da ist es gut, dass wir in die Objekte gucken können“, erzählt er. Wenn nämlich unerfahrene Musikproduzenten auf Kopfhörern mischen, ohne jemals über Lautsprecher abgehört zu haben, „dann kommt es häufig dazu, dass wir eingreifen müssen. Stell dir vor, du positionierst ein Objekt in der Mitte des Raumes und ziehst den Size-Parameter voll auf. Das klingt über Kopfhörer vielleicht unglaublich beeindruckend und groß, aber im Raum hast du maximales Phasing, weil 14 Lautsprecher gleichzeitig ein nicht-dekorreliertes Signal wiedergeben.“

Justin Gray, der beim Mastering vorwiegend die gleichen Techniken wie beim Mischen anwendet, sieht den Unterschied zum Mischen in der Haltung, die er dabei einnimmt. Er möchte im Mastering die künstlerische Intention nicht verändern, sondern sie unterstützen und erweitern, indem er Probleme löst: „Whether that means matching the stereo master, whether it means making it just sound balanced, whether it means working on translation, whether it means meeting a loudness target. Those are all the mindsets of a mastering engineer, not a mix engineer.” In seiner Rolle als Mischer hingegen möchte er über diese Dinge nicht nachdenken, sondern sich auf den kreativen Prozess fokussieren. „All I care about is how the music sounds and feels.“

Becker und Gray betonen außerdem, dass 3D-Mischung und 3D-Mastering wesentlich ähnlicher zueinander sind als Stereomischung und Stereomastering. Laut Becker liegt dies daran, dass bei 3D-Mischungen in der Regel nicht mit allen Aufnahmespuren gearbeitet wird, sondern mit Stems aus der Stereoproduktion, „which means that really the immersive mix process is a stem mastering process. It’s not a mix process for the most part.“ Es wird bereits im Mischprozess darauf geachtet, dass die 3D-Version sich klanglich nicht zu stark von der Stereoversion unterscheidet. „And then the mastering engineer, I would say, is just a second set of ears and, you know, a second set of tweaks to bring everything closer together“, so Becker. Gray beschreibt, dass dies bei 3D-Erstproduktionen anders ist. Da hier nicht der Klangeindruck des Stereomasters nachempfunden, sondern eine neue künstlerische Intention in 3D entwickelt wird, sind die Misch- und Masteringprozesse von 3D-Erstproduktionen deutlicher unterscheidbar.

Notwendigkeit

Der Trend geht dahin, das Mastering wegzulassen, erzählt Herbert Waltl: „Traditional studios often do not play the big role anymore since a new generation of production tools have been developed to enable alternative production methods. I mean, you can do a lot in your bedroom, and it sounds really good if you know what you're doing. However, that does not mean you don’t need professional studios and the expertise of producers and engineers to achieve a high-quality result – but there are different ways to get there. A mastering process should be still part of the production chain.”

Trotzdem schulde ich meinem Kommilitonen noch eine Antwort auf seine Frage: „Ist Mastering für 3D-Musik notwendig?“

David Merkl sagt: „Die Notwendigkeit ist größer denn je, weil die Menge an schlecht klingenden, schlecht balancierten, schlecht verräumlichten Produkten im digitalen Musikmarkt unglaublich groß ist, und das gefährdet die immersiven Formate.“ Auch Becker, Romanowski und Schilling halten die objektive Perspektive, die Masternde bieten, als finale Qualitätskontrolle sowie als Übergang und Schnittstelle des künstlerischen Prozesses zum technischen Prozess der Distribution für unverzichtbar: „I think mastering is essential. I think it’s absolutely necessary and even more important than in stereo, as immersive audio offers more opportunities for mistakes and problems. I fundamentally don’t believe that the mixing engineer should be the mastering engineer of any particular project“, sagt Romanowski.

Buff und Horstmann beklagen ebenfalls, dass viele Produktionen veröffentlicht werden, ohne dass ihr volles Potenzial ausgeschöpft wird. Sie befürchten, dass 3D-Formate sich nicht durchsetzen werden, wenn sie deswegen nicht den Ansprüchen der Zuhörenden genügen. „Alle, die gerade in diesem Format arbeiten, haben verdammt nochmal die Aufgabe, unglaublich gute Mixe zu machen. Weil wir sonst dieses Format nicht auf lange Zeit durchbekommen. Weil die Leute sonst irgendwann zu Apple Music oder zu Tidal gehen und sagen: ‚Ja, ist ja nett, aber da ist auch 50 % Schrott dabei.‘“, so Horstmann.

Block 19

Hans-Martin Buff erzählt, dass die Notwendigkeit des Masterings seiner Mischungen in Stereo als auch in 3D stark abgenommen hat. Mischungen, die er vor 20 Jahren angefertigt hat, bedurften teilweise noch Korrekturen im Frequenzgang; heute hat er diesbezüglich „eine innere Eichung, die einfach genauer ist, als wenn man anfängt.“ Gerade deshalb fragt er sich, „ob dieses Aufzwiebeln von meinen Mischungen, von diesen Datenpaketen, die ich da abliefere, nicht einen Schritt zu weit geht“. Und auch Horstmann schätzt die Notwendigkeit des Masterings von 3D-Musik als geringer ein: „Wenn ich einen Song in Dolby Atmos mische, der schon existiert, bin ich ja schon das zweite Paar Ohren.“

Justin Gray bezieht bei diesem Thema eine vermittelnde Position. In einem Kontext, in dem bereits ein Stereomaster existiert und die Intention besteht, für die 3D-Version einen ähnlichen Klang zu erzielen, ist es seiner Meinung nach nicht zwingend notwendig, dass das Mastering von einer anderen Person durchgeführt wird als die Mischung. Gray argumentiert, dass Mischende, die den Finalisierungsprozess (also zum Beispiel die Einhaltung von Lautheitszielen und das Sicherstellen der Übersetzbarkeit) auch ohne ein dediziertes Mastering erfolgreich umsetzen, Aufgaben des Masterings übernehmen und somit auch Masternde sind. Jedenfalls dann, wenn sie die nötigen Fähigkeiten haben und in einer Abhörumgebung arbeiten, die Masteringansprüchen genügt. „Have I mastered my own content? Absolutely. But it is still mastering, regardless of who does it.“ Mastering ist für Gray also in jedem Fall notwendig; es wird nur oftmals nicht ins Budget einkalkuliert. In Fällen, wo eine Produktion zuerst in 3D gemischt wurde, bedarf es, wie in Stereo auch, unbedingt einer dedizierten Person, die einen objektiveren Blick und eine zweite Meinung hat. Wenn also in der Zukunft mehr Alben als 3D-Erstproduktionen produziert werden, könnte sich ein entsprechendes Mastering für 3D-Musik etablieren. „[…] immersive mastering, what I’ve presented as it at least, I believe will always be able to benefit a production one way or another, whether it’s the same person doing it or another.“

Spannende Links:

  • Interessierten Lesenden empfehle ich an dieser Stelle, einen Blick in meine Masterarbeit zu werfen. Sie thematisiert auch Fragen, die in diesem Artikel ausgelassen oder nicht in Gänze beschrieben wurden. Dazu gehören zum Beispiel Fragen zur Klangfarbe, Räumlichkeit, oder dem Umgang mit Lautheitsvorgaben. Auch genauere Beschreibungen von Softwares und Workflows zur gemeinsamen Bearbeitung aller Signale können dort nachgelesen werden.

Masterarbeit

  • Hier zeigt Eric Horstmann seine Herangehensweise an die Summenbearbeitung am Beispiel einer Moderat-Mischung:

Youtube/Horstmann

  • Justin Grays Mastering-Philosophie für 3D-Musik:

Youtube/Grey

  • Die MPEG-H Authoring Suite ermöglicht es, kostenlos 3D-Musik zu produzieren mit der Besonderheit, dass auch Nutzerinteraktivität möglich ist:

Authoring Suite

Block 21

Julius Segeler arbeitete letztes Jahr am Fraunhofer IIS im Bereich Audio und Medientechnologien unter anderem an der Produktion von MPEG-H-Audio-Demo-Content und beschäftigt sich auch weiterhin mit der Produktion von 3D-Musik. Er schrieb 2023 unter der Betreuung von Daniela Rieger (Fraunhofer IIS) und Stephan Köthe (Filmuniversität Babelsberg KONRAD WOLF) seine Masterarbeit über Mastering für die objektbasierte Musikproduktion.