Die ganze Wahrheit über True Peak Level und warum die meisten CDs übersteuert sind

True Peak Level – Für mehr Dynamik

Mastering - True Peak Level

Das TT Dynamic Range Meter war bereits vor 3 Jahren auf TPL vorbereitet

Als ich vor über drei Jahren die Parameter und Algorithmen des TT Dynamic Range Meter feinabgestimmt habe, war darin bereits ein vollständiges True Peak Meter mit vierfachem Oversampling eingebaut, so wie es heute nach der EBU- und ITU-Norm (European Broadcasting Union und International Telecommunication Union) Weltstandard ist. Tests ergaben, dass die meisten aktuellen CD-Veröffentlichungen nach diesem Messstandard übersteuert wären. Um jedoch eine Flut an Beschwerden und Nachfragen zu vermeiden, haben wir entschieden, die Regeln für das TT Meter etwas zu lockern, um einerseits auf den kritischen Peak-Bereich aufmerksam zu machen und andererseits nicht mit einem Messgerät zu kommen, das von vielen Anwendern mangels Hintergrundinformationen als falsch interpretiert worden wäre.

Heute, drei Jahre später, hat sich True Peak Level (TPL) mittlerweile zum global anerkannten Standard in der Pro-Audio-Welt gemausert und bereits über 20 Hersteller von professionellen Metering-Lösungen haben echte True Peak Meter auf dem Markt. Ironischerweise sucht man in den Audiostatistiken der gängigen DAWs von Cubase über Logic bis hin zu Pro Tools vergeblich nach TPL-Angaben. Bis auf Pyramix liefern alle DAWs völlig unzureichende Auskünfte in Sachen Peak Level, basierend auf Algorithmen, die im Prinzip nie dazu geeignet waren, Peaks von digitalem Audio richtig zu messen (SPPM). Überdies sind die Erkenntnisse rund um die Peak-Aussteuerung bis heute leider nur sehr lückenhaft in die Welt der Mastering-Ingenieure eingedrungen. Dieser Artikel soll daher ein Anfang sein, dies zu ändern.

 

Analoge Messverfahren in der digitalen Welt

Um dies alles zu verstehen, müssen wir das Zeitrad noch weiter zurückdrehen. Wir schreiben das Jahr 1984 und die CD erblickt in Deutschland das Licht der Welt. Zu dieser Zeit wurde noch zu hundert Prozent analog produziert, wobei die analoge Mischung sorgfältig analog gelimitet und auf ein 16-Bit-Mastermedium – in der Regel ein DAT-Recorder – überspielt wurde. In gebührendem Respekt vor möglichen Übersteuerungen wurden diese Analog-Digital-Überspielungen mit drei bis sechs Dezibel Peak Headroom durchgeführt. Allerdings stellte das Aussteuern bei 16-Bit-Auflösung immer einen kritischen Balanceakt zwischen möglicher Übersteuerung und Untersteuerung dar, was zu mangelnder Bitausnutzung führen konnte.

Mastering - True Peak Level

16-Bit-DAT-Recorder wie der Panasonic SV-3700 waren die Mastermaschinen der 80er

Die digitalisierten Aufnahmen wurden anschließend im Mastering gegebenenfalls noch etwas nachbearbeitet, was anfangs in der Regel mit analogen Geräten erfolgte, da es noch keine guten digitalen EQs und Kompressoren gab. Die finale CD kam schließlich nicht selten mit einem Headroom von einem Dezibel oder mehr auf den Markt und war der Zeit entsprechend noch sehr dynamisch und daher völlig unkritisch in Sachen Peak-Übersteuerungen.

Aus dieser Rückschau wird klar, weshalb die Schöpfer der digitalen Audiowelt den Grad der möglichen Peak-Übersteuerungen, wie sie heute stattfinden, nicht vorhersehen konnten. Damals war man glücklich über ein Medium, das so viel Dynamik wiedergeben kann und es waren keine technischen Möglichkeiten vorhanden, Mischungen sozusagen so gegen die Decke zu nageln, wie es heute die Regel ist. Aus dieser Sicht waren die damals gebräuchlichen Messmethoden (SPPM) also völlig ausreichend. Mit der Etablierung digitalen Limitings und dem Bedürfnis nach immer lauteren Mastern lieferten diese Messmethoden jedoch nur noch unzureichende Ergebnisse, was über ein Jahrzehnt lang fast völlig übersehen wurde.

Um den Grund dafür zu finden und das alles genau zu verstehen, müssen wir zunächst ein wenig in die Geschichte der Messtechnik eintauchen:

Lesermeinungen (15)

zu 'Die ganze Wahrheit über True Peak Level und warum die meisten CDs übersteuert sind'

  • Paul
    13. Mai 2012 | 13:10 Uhr Antworten

    War auch wirklich Zeit für einen neuen Standard! Endlich ist es soweit – hoffentlich lässt der Lautheitswahn langsam nach.

  • mat
    13. Mai 2012 | 13:28 Uhr Antworten

    Klasse Artikel!

    Vor allem die Aussage, dass plattgemachte Musik mental anstrengender ist!

    Genau die Transienten sind entscheidend z.b. für das Erkennen eines akkustischen Instrumentes und erzeugen Durchsichtigkeit und Klarheit im Mix.

    Ich kann in fast keine Klubs mehr gehen deshalb, macht mich richtig gehend aggressiv…

    Tja, wenn man es einmal bemerkt hat ist es immer da … :)

  • Philipp
    13. Mai 2012 | 15:08 Uhr Antworten

    Klasse Artikel. Ich hoffe, dass sich in Zukunft möglichst viele Produktionen an diesen neuen Standard halten werden.

    Der Artikel ist auch für Personen, die sich noch nicht so intensiv mit dem Thema auseinandergesetzt haben sehr verständlich.

    Macht weiter so!

  • Torador
    13. Mai 2012 | 16:25 Uhr Antworten

    Vielen Dank für diesen sehr interessanten Artikel. Ich freue mich immer, wenn es auf Delamar mal wieder etwas von Friedemann Tischmeyer zu lesen gibt.

  • Ramon
    14. Mai 2012 | 10:37 Uhr Antworten

    Niemand dachte im Traum daran, dass das bislang dynamischste Medium (CD = 96 dB Dynamikumfang) eines Tages dazu verwendet werden wird, die historisch undynamischsten Aufnahmen zu (re-)produzieren[...].

    Ich musste traurig lachen, als ich das laß. Es ist so verrückt und nüchtern betrachtet völlig unerstrebenswert und unvorstellbar, das auch nur eine geringe Minderheit soetwas als erstrebenswert ansehen könne, aber es ist einfach wahr. Wenn die Realität so bescheuert ist, das sie einen mehr amüsiert als alle Kabarettisten zusammen, ist man im Jahre 2012 angekommen. Wohin das wohl geht? :D

  • Eric
    14. Mai 2012 | 12:37 Uhr Antworten

    Das schlimmste ist ja, das die Leute diesen überkomprimierten Sound auch noch als Normal empfinden. Wenn ich meinen Track dynamisch lasse, bekomme ich gleich wieder zu hören:” das klingt nicht fett genug”, und wenn ich es richtig übertreibe” Woooooooooa – klingt das Fett! Die meisten Leute haben gar keine Ahnung und denken, normla ist das, was man so im Radio hört.

  • alexander
    14. Mai 2012 | 18:26 Uhr Antworten

    wer sich damit nicht auseinandersetzt dem fällt diese lautheit sicher nicht bewusst auf.
    ich für meinen teil finde dieses laute, nur laut und noch lauter völlig lächerlich.
    es hat doch jede anlage einen volumenregler. wer also laut hören möchte dreht einfach laut.
    also wozu der stuss ???

    • Marcel
      15. Mai 2012 | 07:52 Uhr Antworten

      Nur um dich ein wenig zu korregieren. Es geht bei der hier umschriebenen Lautheit um die Dichte der leisen und lauten Anteile eines Signals. Mit der Lauheit ist somit nicht direkt die Lautstärke sondern die empfundene Dichte eines Titels gemeint.
      Um es anders aus zu drücken, ein Stück welches derart komprimiert und bearbeitet wurde, dass du in einer Wellenformdartsellung nur noch die allseits genannte “dicke Wurst” siehst, wirst du immer als Laut und somit auch recht undynamisch empfinden. Während du ein anderen Titel der nicht so ausgequetscht wurde auch an den dynamischen Passagen erkennst, da hier sehr wohl auch die Lautstärke bzw. die empfundeneLautheit etwas runter geht. Zum Vergleich hör dir einfach ein Orchesterstück an und danach z.B. die Ursprünglich gemasterte Scheibe von Metallica (Ich meine das müsste das letzte Album gewesen sein). Die Scheibe wurde im endeffekt noch mal neu gemastert, da gerade bei der Scheibe derart übertrieben wurde das es auch wirklich keiner mehr gut fand. Eine Grenz Erscheinung ist das Album 10.000 von Tool. Hier wurde scheinbar meisterleistung vollbracht, es hat eines der höchsten Lautheiten für ein Album welches trotzdessen SEHR Dynamisch ist.
      Naja usw.

    • IrgendeinThomas
      15. Mai 2012 | 10:28 Uhr Antworten

      Ja das mit dem Volumenregler stimmt schon, aber das Problem ist das sich nunmal fast jede Musikproduktion an der Konkurrenz orientiert um nicht bei direktem Vergleichshören des Konsumenten (über zB diverse Internetplattformen) lautstärkemäßig abzufallen. Leider ist es nunmal so das lautere Musistücke bei den meisten Konsumenten präsenter, gefälliger im Vergleich zu den weniger komprimierten erscheinen. Da wird halt dann wohl oftmals eher zum nächsten Track weitergeklickt als den Volumenregler hochzudrehn. Mir kommt das so ähnlich vor wie in der Nahrungsmittelindustrie mit den künstlichen Aromastoffen die schon überall eingesetzt werden und intensiver schmecken, daher vom Konsumenten im Regelfall bevorzugt, so wie sich auch zwangsläufig mit der Zeit die Geschmacksnerven an diesen intensiven Geschmack gewöhnen und demzufolge die diesbezügliche natürliche Frucht im Vergleich dazu als langweilig, weniger gut schmeckend eingestuft wird.
      Ich denke bei diesem Radio/Mainstreamsound ist es ähnlich – hier ist wohl auch schon ein Modetrend und Gewohnheitseffekt enstanden und meine Vermutung ist das dynamischere Musikstücke bei den meisten Konsumenten weniger Anklang finden (und sei es nur unbewußt) als würde man die gleichen jeweiligen Musikstücke stark komprimieren. Es läuft bei Beidem nur auf “mehr und noch mehr” hinaus und wird wohl sowohl als auch schwer sein das Ganze zu durchbrechen und Konsumenten wieder mehr, ob es jetzt natürlicher Geschmack oder Transienten sind, zu sensibilisieren.

    • IrgendeinThomas
      15. Mai 2012 | 10:35 Uhr Antworten

      …PS Marcel hat natürlich recht und das meinte ich auch in meinem Beitrag mit “Lautheit” (komprimiert) aber natürlich könnte man auch bei weniger komprimierten Stücken am Volumenregler drehen, was aber den Kompressionseffekt nicht ersetzt insofern man diesen haben möchte also auf Dynamik und Transienten pfeift.;-)

  • Burger
    18. Mai 2012 | 11:00 Uhr Antworten

    Friedemann,

    danke für den Artikel!
    Ich habe derzeit viel mit Rundfunk zu tun und habe nach dem Artikel das Gefühl, ein bisschen Licht ins Dunkel gebracht zu haben. Endlich kann man mal nachvollziehen, was Grundlage für Messungen bei R128 ist. Danke dafür!
    Sehr schön erklärt, prima Grafiken, weiter so!
    Man merkt wieder einmal, wie engagiert du dich gegen die Lautheitswahn einsetzt.

    Eine Sache stößt mir nur leicht auf, das Klangbeispiel “Molotov” von Seeed. Die abgerundeten Peaks, die man dort sieht (und die sicherlich das eigentliche Phänomen gut erklären), sind m.E. doch eher Bandsättigungseffekte a la UAD Studer A800… klingt zumindest ganz verdächtig danach. Oder habe ich da einfach deine Intention missverstanden?

    Ach ja, Kudos an alle anderen. Musik ohne Transienten ist wie eine Wartezimmer oder Doktor.

    Grüße aus Berlin

  • Luksimlau
    20. Mai 2012 | 10:29 Uhr Antworten

    Sehr schöner Beitrag. Haben sie vielleicht einen Tipp für ein kostenloses, bzw. günstiges Metering Tool, das TPL misst?

    Und in der dritten Grafik von Oben ist ein Headroom ab -0,3db eingezeichnet, im Tesxt ist jedoch von -0,5db die Rede, oder habe ich da etwas Missverstanden?
    Vielen Dank und Viele Grüße :)

  • Sascha Becks
    24. Mai 2012 | 11:19 Uhr Antworten

    Vielen Dank für diesen hervorragenden Artikel!
    Ich hoffe, das dieser Lautheitswahn in absehbarer Zukunft ein Ende nimmt.

  • Markus
    05. Sep 2012 | 15:44 Uhr Antworten

    “Trotzdem bieten fast alle DAWs lediglich Peak-Messungen nach SPPM an, wobei zumeist unklar ist, wie die Regeln für das Triggern einer Übersteuerung festgelegt sind.”

    Ich möchte hier Samplitude von Magix positiv erwähnen. In der aktuellen Version ProX kann sowohl TPM mit Oversampling, die Übersteuerungsschwelle und die Anzahl der maximal erlaubten maximal Samples eingestellt werden.

  • amateurbedarf
    21. Okt 2014 | 18:55 Uhr Antworten

    ich arbeite seit jahren mit cubase und bin auch in diesen wahn abgedriftet. du hast mir mit deinem artikel die flügel gestutzt und mich wieder auf den richtigen pfad gebracht.

    auch grüße aus berlin

Sag uns deine Meinung!