Die richtige Reihenfolge
Mastering am Computer

Audio Mastering Workshop Bearbeitungsschritte

Reihenfolge der Klangbearbeitungsschritte im Mastering

Die richtige Reihenfolge: Mastering

Wie jede Regel hat auch diese aufgrund der großen Unterschiedlichkeit von Ausgangsmaterial und Bearbeitungsbedarf Ausnahmen, denen durch individuelle Variation Rechnung zu tragen ist. In diesem Artikel konzentrieren wir uns jedoch auf logische Gesetzmäßigkeiten, die die Voraussetzung für gute klangliche Ergebnisse schaffen. Da der Umfang dieses Artikels begrenzt ist, wird ein gutes Grundwissen vorausgesetzt.

Die schematische Darstellung zeigt die logische und zumeist verwendete Reihenfolge der Bearbeitungsschritte. Natürlich kommen im Mastering nie alle Schritte zum Einsatz sondern Kombinationen aus entweder/oder und sowohl/als auch.

Reihenfolge Mastering

Reihenfolge der Klangbearbeitungsschritte im Mastering

Bildlegende:

  • Schwarze Schrift (fett) = feststehender Status
  • Grüne Schrift = Stapelbearbeitung oder Offlineprozessing
  • Gelbe Schrift = Offlineprozessing aus Wavedatei
  • Blaue Schrift = Plugin-Anwendung über Masterbereich (Rendering aus Wavefenster)
  • Rote Schrift = Bearbeitungsschritte in der Montage (respektive Edit Decision List)
  • Schwarze Schrift = abschließendes Rendering aus der Montage
  • Kursive Schrift = WaveLab-Anwendungshinweise
anzeige

Die Bearbeitungsschritte im Einzelnen

Mix-Master

Das Mix-Master ist dein angeliefertes Ausgangsmaterial in 16, 24 oder 32-Bit. In diesem Artikel gehen wir davon aus, dass es in digitaler Form auf CD-ROM, DVD-ROM oder HD vorliegt.

32-Bit-Wandlung beim Mastering

Liegen alle Titel für den zu masternden Tonträger vor, sollten die Originaldateien in einen anderen Ordner kopiert und dabei in 32-Bit-Fließkomma-Dateien gewandelt werden. WaveLab bietet hierfür ein praktisches Stapelbearbeitungswerkzeug. Der Stapelbearbeitungsvorgang lässt sich sinnvoller Weise mit den folgenden beiden Schritten (DC-Versatz entfernen und Normalisierung) koppeln.

Die erzeugten Dateien sind die Sicherungskopie, von der die weiteren Bearbeitungen vorgenommen werden, da die Originalfiles als Backup unbearbeitet bleiben. Die Stapelbearbeitung findest Du im WaveLab Hauptmenü „Werkzeuge“.

Reihenfolge Mastering Stapelbearbeitung

Die Stapelbearbeitung eignet sich gut, um in einem Arbeitsschritt die 32-Bit-Wandlung, Backup, DC-Offset und Normalisierung durchzuführen

DC-Versatz entfernen

Das Entfernen von DC-Versatz (DC-Offset) ist nicht immer notwendig, schadet aber i.d.R. klanglich nicht. Hierdurch werden tieffrequente Artefakte zwischen 0 Hz und ca. 5 Hz entfernt, die durch ihre tiefe Frequenz Gleichstromcharakter haben und im Nutzsignal nichts verloren haben. Der DC-Offset kann auch gegebenenfalls mit guten steilflankigen Lowcutfiltern entfernt werden.

Alles zum Thema DC-Offset »

Audio Mastering Workshop DC-Versatz DC-Offset

DC-Offset sichtbar in der Wellenform als Versatz nach unten

Audio Mastering Workshop DC-Versatz DC-Offset

DC-Offset sichtbar an einem guten Analyser (wie Abb. zuvor)

Normalisierung

Die Normalisierung hat bei der Verarbeitung von Alben einen großen Vorteil: Alle Titel haben einen gleichen Peakheadroom-Ausgangswert und lassen sich später so kontrollierter zu einer albumkonsistenten Lautheit weiter verarbeiten.

Der Normalizer sollte im Stereolink-Modus verwendet werden. Als Headroom stelle ich gerne 3 dB ein, um die Powercore nicht zu übersteuern (kann insbesondere in Kombination mit uad-Karte passieren, da die PoCo mit 24-Bit Fixpointauflösung arbeitet). Wenn nicht mit Powercore oder via AES/EBU angeschlossenen externen Geräten gearbeitet wird, kann in durchgängiger 32-Bit-Bearbeitung auch 0 dB als Headroom eingestellt werden.

Die Normalisierung hat in hoher Bitauflösung keinerlei Auswirkungen auf den Sound, auch wenn Audiopuristen jetzt einwenden würden, dass jede unnötige Änderung am Ausgangsmaterial eine (theoretische) potenzielle Verschlechterung sein kann.

Die Normalisierung dient ausschließlich der Bequemlichkeit des Engineers, der im Arbeitsfluss von einem festgelegten Peakheadroom ausgehen darf, ohne jeden Titel genauer unter die Lupe nehmen zu müssen. Diese Optimierung des Arbeitsflusses kann indirekt ein optimales Ergebnis begünstigen.

Weiter zu Teil 2 der Reihenfolge im Mastering »

Workshop auf DVD

Erfahre noch mehr über das Thema Audio Mastering von Profi Friedemann Tischmeyer. Kaufe jetzt den Mastering Workshop auf DVD bei Amazon.
Jetzt bestellen

Vom Autor dieses Artikels sind die Bestseller „Audio-Mastering mit PC-Workstations“ und „Internal Mixing“ sowie die gleichnamigen Tutorial-DVD-Serien erschienen.
Infos: www.proworkshops.de

Lesermeinungen (16)

zu 'Die richtige Reihenfolge: Mastering am Computer'

  • Justus   25. Apr 2010   15:40 UhrAntworten

    Tischmeyer schreibt großartige Artikel! Danke dafür!

  • Sib   25. Apr 2010   16:10 UhrAntworten

    Danke dafür!! :D

  • prof. progressor   25. Apr 2010   19:55 UhrAntworten

    ist mir zu hoch :-) danke trotzdem ;-)

  • aLf   25. Apr 2010   21:50 UhrAntworten

    Ist die 32-Bit-Wandlung als Bearbeitungsschritt notwendig, da WaveLab sowieso automatisch eine temporäre 32-Bit-Float-Datei erzeugt?

  • Stefan   25. Apr 2010   23:26 UhrAntworten

    Großartig. Ich bin so froh das ich eich gefunden hab. Durch eure Email erfahre ich immer was los ist und seit ca. 1nem Monat bekomme ich Links zu Tutorials die mich wirklich brennend interessieren.
    Großes Lob mach weiter so...

    MfG

    Stefan

  • oliver schmitt   25. Apr 2010   23:40 UhrAntworten

    ein wirklich klasse beitrag! 'delamar' ist eine echte bereicherung - muss meiner meinung nach auch mal gesagt werden... :-)

  • olaf   26. Apr 2010   11:28 UhrAntworten

    ...die Sache mit der Normalisierung kann aber auch einen erheblichen negativen Nebeneffekt haben:

    Hat man z.B. für ein Album einen sehr dynamischen Track mit geringem RMS-Pegel, aber hohen Peak-Spitzen und einen anderen Track mit wenig Dynamik, also einem hohen RMS-Pegel und nur kleinen Peak-Spitzen, kann die Normalisierung zu erheblichen empfundenen Pegel-Unterschieden zwischen diesen Tracks führen, sodass der Track mit viel Dynamik im Vergleich unnatürlich leiser wirkt, als der Track mit wenig Dynamik. Hört sich etwas verwirrend an, deswegen kurz zur Erklärung:

    Die Lautstärkeempfindung des menschlichen Gehörs richtet sich weniger nach einzelnen Pegelspitzen, als vielmehr nach der durchschnittlichen Lautstärke. Die durchschnittliche Lautstärke wird zumeist (in der digitalen Welt) als RMS-Pegel angegeben (RMS = Root Mean Square). Hierzu wird der absolute Pegel eines Audio-Signals über einen längeren Zeitraum gemessen (gängig sind 300-600 ms) und davon das quadratische Mittel gebildet.

    Bei dynamischem Material liegt z.B. der RMS- Wert bei -20 dBFS, während einzelne Peak-Spitzen bis etwa -6 dBFS reichen. Die Differenz zwischen RMS-Level und Peakspitzen bezeichenet man als Dynamikumfang (dynamic range, crest-factor). Im o.g. Beispiel wäre dieser Dynamikumfang also 14 dB (DR14). Stark komprimiertes Material mit geringer Dynamik hätte z.B. einen RMS-Level von -9 dBFS und Peak-Spitzen bis - 3 dbFS. Der Dynamikumfang läge hier also bei nur noch 6 dB (DR6).

    Bei der Normalisierung wird nun lediglich nach dem lautesten Peak einer Aufnahme gesucht und das gesamte Audiomaterial linear verstärkt (oder abgeschwächt) bis diese eine Peakspitze den eingestellten Wert erreicht. Genau aus diesem Grund würde ich auf eine Normalisierung eher verzichten. Um eine vernünftige Pegelkontrolle kommt man damit normalerweise nicht herum. Einzige Ausnahme: das Ausgangsmaterial ist durchweg "homogen" in seiner durchschnittlichen Lautheit.

    Ich hoffe, ich habe noch nicht zu viel vorweg genommen... :), vielleicht wird dazu später noch etwas gesagt werden. Wer sich für die regen Diskussionen zum Thema "Lautheit" und deren Folgen etwas mehr informieren möchte, muss nur mal nach "Loudness War" im Internet suchen...

  • Ramon Smith   26. Apr 2010   16:04 UhrAntworten

    "Loudness War sucks derbe ass!"

    So drückt es der Neudeutsche aus, wenn er denn trotz neudeutschem Sprachgebrauch denn den Loudness War verstanden hat.

    Sehr schönes Bespiel ist die neue Metallica-Scheibe und die Guitarheroversion, denn in GuitarHero werden die einzelnen Spuren verwendet und der Song ist mit weniger Kompression zu hören.

    Ich muss immer wieder an den Song 'Mastered by Muppets' denken. Sehr unterhaltsam und dennoch so traurig wahr.

  • BLACKSTEEZE   01. Mai 2010   14:09 UhrAntworten

    Top Artikel! Immer wieder begeistert :)

  • wolfgang   29. Dez 2010   22:59 UhrAntworten

    Hallo
    grossartige seite tolle serie
    jetzt meine frage ich habe gehört das als basis für das mastern nicht nur eine stereospur sondern auch noch die gespilteten stereokanäle und eine monospur dienen können hat das jemand schon probiert bzw. wie läuft das?? würde mich über eine antwort freuen
    lg
    wolfgang

  • Tonstudio 0815   13. Dez 2011   20:08 UhrAntworten

    Mal ne andere Frage: wo bekomme ich so einen guten Analyzer für die (ganz) tiefen Frequenzen her????

    Danach suche ich schon lange!

  • Tonstudio 0815   15. Dez 2011   15:46 UhrAntworten

    okay danke...

    was gibts den da an guten "kommerziellen" Produkten???

  • olaf   15. Dez 2011   15:02 UhrAntworten

    Probier's mal mit "SPAN" von Voxengo! Ist kostenlos, bietet u.a. K-Metering und der Analyser-Ausschnitt ist beliebig anpassbar. Für "den Preis" gibt es kaum etwas besseres!
    voxengo.com/group/free-vst-plugins/

  • olaf   15. Dez 2011   22:41 UhrAntworten

    Zum Beispiel das hier: nugenaudio.com/

    Ist, soweit ich weiß, auch noch einigermaßen erschwinglich...

    Ansonsten sollte bei den typischen Mastering-Plugins etwas Analyser-Mäßiges mit dabei sein. Z.B. iZotope, Sonnox etc. Auch nicht schlecht sollen Flux und deren Ircam-Tools sein: fluxhome.com Aber das dürfte auch alles etwas teurer sein. Ob's auch besser ist oder zumindest seinen Preis wert, kann ich nicht beurteilen.

  • n4pst3r3r   13. Jan 2014   15:08 UhrAntworten

    Auch wenn der Artikel jetzt schon ein paar Jährchen auf dem Buckel hat, möchte ich hier meinen Dank für diese (zumindest für mich letztes Wochenende) unschätzbar wertvollen Ratschläge ausdrücken.
    Wir eierten über ein halbes Jahr mit einer Aufnahme herum, die es einfach nicht gebracht hat. Vor anderthalb Monaten wurde sie dann über den haufen geworfen und re-recorded und war im mix schon viel besser, nur am Master hing es noch.
    Druckvoll, schön, zufriedenstellend aber... viel zu leise. Der RMS-Pegel lag grob bei -12db, die Peaks dafür nur knapp unter 0.
    Ich habe es dann ums verrecken nicht hinbekommen, die Lieder auf eine einigermaßen akzeptable Laustärke zu bringen (Loudness-War hin oder her, auf -3db will ich schon gerne kommen). Die Tipps hier, ich vermute vor allem der Topend-Limiter, der Transientenmodulator und der Multiband-Kompressor haben dann die Wende gebracht. Wir alle sind glücklich und zufrieden und bringen bald unsere erste Scheibe heraus, in Eigenregie aufgenommen mit der Hilfe von Friedmann Tischmeier und Carlos San Segundo. Danke!

  • Johannes   22. Nov 2017   20:00 UhrAntworten

    Tolle Beiträge, vielen Dank an den Autoren und euch als Medium.

    Ich hab, auch wenn der Artiken schon recht alt ist, eine (Anfänger-) Frage:

    Wie ist das gemeint mit den Schritten zwischen M/S-Encoding und -Decoding? Ich habe dazwischen, wenn ich die Sache richtig verstehe, Links das Mittensignal und Rechts das Seitensignal. Benutze ich dann Stereo-EQs und -Kompressoren unlinked auf beide Spuren? Macht Routing auf weitere Spuren Sinn und also Einzelbearbeitung der M- und S-Spur? Warum sollten diese Schritte auf das M/S-Signal angewendet werden? Wenn ich M- und S-Kanal z.B. mit einem (Stereo-)Kompressor bearbeite, habe ich nicht so viel Einfluss auf die Kompressionscharakteristik, oder?

    Liebe Grüße
    Hannes

Sag uns deine Meinung!

anzeige

Empfehlungen