Die ganze Wahrheit über True Peak Level
Warum die meisten CDs übersteuert sind
True Peak Level – Für mehr Dynamik
Als ich vor über drei Jahren die Parameter und Algorithmen des TT Dynamic Range Meter feinabgestimmt habe, war darin bereits ein vollständiges True Peak Meter mit vierfachem Oversampling eingebaut, so wie es heute nach der EBU- und ITU-Norm (European Broadcasting Union und International Telecommunication Union) Weltstandard ist. Tests ergaben, dass die meisten aktuellen CD-Veröffentlichungen nach diesem Messstandard übersteuert wären. Um jedoch eine Flut an Beschwerden und Nachfragen zu vermeiden, haben wir entschieden, die Regeln für das TT Meter etwas zu lockern, um einerseits auf den kritischen Peak-Bereich aufmerksam zu machen und andererseits nicht mit einem Messgerät zu kommen, das von vielen Anwendern mangels Hintergrundinformationen als falsch interpretiert worden wäre.
Heute, drei Jahre später, hat sich True Peak Level (TPL) mittlerweile zum global anerkannten Standard in der Pro-Audio-Welt gemausert und bereits über 20 Hersteller von professionellen Metering-Lösungen haben echte True Peak Meter auf dem Markt. Ironischerweise sucht man in den Audiostatistiken der gängigen DAWs von Cubase über Logic bis hin zu Pro Tools vergeblich nach TPL-Angaben. Bis auf Pyramix liefern alle DAWs völlig unzureichende Auskünfte in Sachen Peak Level, basierend auf Algorithmen, die im Prinzip nie dazu geeignet waren, Peaks von digitalem Audio richtig zu messen (SPPM). Überdies sind die Erkenntnisse rund um die Peak-Aussteuerung bis heute leider nur sehr lückenhaft in die Welt der Mastering-Ingenieure eingedrungen. Dieser Artikel soll daher ein Anfang sein, dies zu ändern.
Passend dazu
- TBProAudio dpMeter III: Free VST Metering Plugin
- Nugen Audio MasterCheck Pro: Für perfekten Sound bei Spotify & Co.
- Nugen Audio MasterCheck: Lautheit messen, abgleichen und mehr
- MeterPlugs LCAST: Loudness Meter für Windows & Mac OS X
- Audio Mastering am Computer: Peak- und RMS-Pegel
Analoge Messverfahren in der digitalen Welt
Um dies alles zu verstehen, müssen wir das Zeitrad noch weiter zurückdrehen. Wir schreiben das Jahr 1984 und die CD erblickt in Deutschland das Licht der Welt. Zu dieser Zeit wurde noch zu hundert Prozent analog produziert, wobei die analoge Mischung sorgfältig analog gelimitet und auf ein 16-Bit-Mastermedium – in der Regel ein DAT-Recorder – überspielt wurde. In gebührendem Respekt vor möglichen Übersteuerungen wurden diese Analog-Digital-Überspielungen mit drei bis sechs Dezibel Peak Headroom durchgeführt. Allerdings stellte das Aussteuern bei 16-Bit-Auflösung immer einen kritischen Balanceakt zwischen möglicher Übersteuerung und Untersteuerung dar, was zu mangelnder Bitausnutzung führen konnte.
Die digitalisierten Aufnahmen wurden anschließend im Mastering gegebenenfalls noch etwas nachbearbeitet, was anfangs in der Regel mit analogen Geräten erfolgte, da es noch keine guten digitalen EQs und Kompressoren gab. Die finale CD kam schließlich nicht selten mit einem Headroom von einem Dezibel oder mehr auf den Markt und war der Zeit entsprechend noch sehr dynamisch und daher völlig unkritisch in Sachen Peak-Übersteuerungen.
Aus dieser Rückschau wird klar, weshalb die Schöpfer der digitalen Audiowelt den Grad der möglichen Peak-Übersteuerungen, wie sie heute stattfinden, nicht vorhersehen konnten. Damals war man glücklich über ein Medium, das so viel Dynamik wiedergeben kann und es waren keine technischen Möglichkeiten vorhanden, Mischungen sozusagen so gegen die Decke zu nageln, wie es heute die Regel ist. Aus dieser Sicht waren die damals gebräuchlichen Messmethoden (SPPM) also völlig ausreichend. Mit der Etablierung digitalen Limitings und dem Bedürfnis nach immer lauteren Mastern lieferten diese Messmethoden jedoch nur noch unzureichende Ergebnisse, was über ein Jahrzehnt lang fast völlig übersehen wurde.
Um den Grund dafür zu finden und das alles genau zu verstehen, müssen wir zunächst ein wenig in die Geschichte der Messtechnik eintauchen:
Die wichtige Marke der -9 dBFS hat ausgedient
In der Übergangsphase vom Analog- in das Digitalzeitalter wurde in den Studios noch mit QPPM (Quasi Peak Program Metering) gearbeitet, einem Messverfahren aus der Analogzeit, das mit einer Integrationszeit von zehn Millisekunden arbeitet. Die Integrationszeit ist dabei das Messfenster, das vom Meter analysiert wird. Kürzere Werte wären von den mechanischen Nadeln der VU-Meter nicht darstellbar gewesen, was aber nicht weiter schlimm war, da analoge Medien mit einem gewissen Übersteuerungs-Headroom ausgestattet waren. Besonderheit: Das Ergebnis einer QPPM-Messung besitzt dabei einen Underread (zu niedrige Angabe) von bis zu neun Dezibel. Das heißt, dass besonders hochfrequente Transienten, die kürzer als zehn Millisekunden sind, in Wirklichkeit bis zu neun Dezibel höher sein können als der QPPM-Grenzwert von -9 Dezibel. In der Praxis wurde hingegen von einem mittleren Underread-Wert von 4,5 Dezibel ausgegangen, da solch hoch ausgesteuerte Transienten im hohen Frequenzbereich seltener vorkommen. Alles in allem lässt sich also sagen, dass das »Quasi Peak Program Metering«-Verfahren – Nomen est Omen – lediglich Anhaltswerte für den wahren Peak-Wert liefert.
Die Konsequenz: Da in der Analog-Digital-Übergangszeit erst sehr wenige Studios und Rundfunkanstalten mit digitalen Peak-Metern ausgestattet waren, wurde der maximal zulässige (QPPM-)Peak-Wert auf -9 dBFS festgelegt. Eine Aussteuerung bis -9 dBFS hat also erlaubt, dass sich Transienten, die nicht von der QPPM-Messung erfasst werden, in dem Headroom darüber entfalten können, ohne den maximalen Digitalpegel von 0 dBFS (SPPM) zu überschreiten. Dieser Wert von -9 dBFS ist bis heute Broadcast-Standard, der jedoch seit dem 1. Januar 2012 seine Gültigkeit verloren hat, da er gegen das TPL-Verfahren ersetzt wird.
Allerdings hat das absurde und auf unverifizierten Annahmen beruhende Bedürfnis, möglichst laut zu sein, auch vor dem Broadcast-Bereich bekanntermaßen keinen Halt gemacht. Der zulässige Grenzwert wurde daher auch dort sukzessive nach oben verschoben, was mithilfe digitaler Sende-Limiter, etwa von Geräten der Optimod-Serie des Herstellers Orban, mit Leichtigkeit bewerkstelligt werden kann. Dabei werden sämtliche auftretenden Transienten zuverlässig plattgefahren, sobald ein bestimmter Schwellenwert überschritten wurde.
So ist der Standard immer weiter aufgeweicht worden und heute weiß eigentlich keiner mehr genau, in welchem Pegel man nun wirklich an Fernsehstationen liefern soll. An einigen Ausbildungsinstituten wird sogar gelehrt, dass ein Brickwall-Limiter bei -9 dBFS anzuwenden sei, was die Transienten, zu deren Überleben dieser Headroom einst geschaffen war, natürlich vollends abrasiert. In der Praxis ist es heute so, dass viele Studios gar nicht mehr über QPPM-Messtechnik verfügen und DAWs diesen Wert in der Regel auch nicht ausweisen. Studios, die nach der korrekten Intention dieses veralteten Standards ihre Produktion abliefern, werden in Folge dessen sicherlich häufiger zu hören bekommen, dass sie zu leise sind. Das führt uns jedoch auf ein weiteres Thema: Lautheitsnormalisierung nach R128, was wir in einer der nächsten Folgen ausführlich besprechen. Nur soviel dazu an dieser Stelle: Die Tonmeisterei darf sich darüber freuen, dass mit dem neuen EBU-Standard R128 dieses Lautheitskuddelmuddel ein Ende hat.
Das SPPM-Verfahren ist unzureichend
Setzen wir also unsere Messtechnikreise mit dem nächsten Verfahren, dem »Sample Peak Program Metering« (SPPM) fort. Versetzen wir uns dazu noch einmal zurück in das Jahr 1984: Zu dieser Zeit erschien die Ansicht, präzise Ergebnisse durch Analyse jedes einzelnen Samples zu erhalten, durchaus plausibel. Niemand dachte im Traum daran, dass das bislang dynamischste Medium (CD = 96 dB Dynamikumfang) eines Tages dazu verwendet werden wird, die historisch undynamischsten Aufnahmen zu (re-)produzieren, die eine Konzentration musikalischer Ereignisse an der digitalen Aussteuerungsgrenze mit sich gebracht hat, zu deren sauberen Bemessung SPPM völlig unzureichend ist. Bei SPPM wird der Wert jedes einzelnen Samples ausgelesen und der höchste ermittelte Wert repräsentiert den maximalen Peak. So weit so gut. Doch das Problem ist systemimmanent, denn unsere Digitalskala endet bei 0 dBFS, sodass ja prinzipiell keine Werte oberhalb dieser Grenze angezeigt werden können. Messtechnisch ist digitales Audio nach SPPM quasi nicht übersteuerbar, es sei denn, bestimmte Regeln kommen zur Anwendung.
Zeigt das SPPM-Verfahren gelegentlich ein einzelnes Sample an, das die 0-dB-Marke streichelt, so mag das in Ordnung sein. In der Realität sieht das heutzutage jedoch völlig anders aus. So ist bei Analysen auffällig, dass auf vielen CDs bis zu 100 Samples in Folge förmlich gegen 0 dBFS genagelt sind. Selbst das Einbauen eines Sicherheits-Headrooms, bei dem 100 Samples in Folge beispielsweise nur bis -0,3 dB reichen, führt bei der DA-Wandlung zu einer satten Übersteuerung von bis zu sechs Dezibel. Was also in der digitalen Welt richtig ist, muss noch lange nicht für die analoge Seite gelten, in die schließlich jedes Digitalsignal zurückgewandelt werden muss, um in Schallwellen verwandelt werden zu können.
In einem Satz zusammengefasst kann man den Unterschied zwischen digitalen und analogen Signalen so beschreiben: Digitale Signale sind eckig und analoge Signale sind rund. Anders ausgedrückt: Das runde, analoge Signal wird sich nicht davon abhalten lassen, weiter anzusteigen, anstatt brav in der Waagerechten abzuknicken, nur weil die Marke von 0 dBFS erreicht ist. Es steigt weiter an, triggert Übersteuerungsgrenzen und ruft eine analoge Verzerrung hervor, die in vielen Fällen tatsächlich auch deutlich hörbar ist und zu bis zu 700 Millisekunden langen Verzerrungsartefakten führt.
Dieses Problem wurde übrigens schon vor vielen Jahren erkannt, weshalb die SPPM-Messung schließlich um zulässige Grenzwerte erweitert wurde. In professionellen Peak-Metern kann häufig eingestellt werden, wie viele Samples in Folge 0 dBFS haben dürfen, bevor die Over-Anzeige ausgelöst wird. Anfangs waren es neun Samples, doch heute ist bekannt, dass selbst zwei Samples keinen ausreichenden Übersteuerungsschutz vor sogenannten Durchschießern oder Interleaved Sample Overs geben.
Wir haben bei SPPM einen Underread von bis zu 6dB. Das bedeutet, dass SPPM um bis zu 6 dB niedrigere Peak-Werte als die von TPL erkannten Peak-Werte inkl. Interleaved Sample Overs über 0 dBFS anzeigt. Trotzdem bieten fast alle DAWs lediglich Peak-Messungen nach SPPM an, wobei zumeist unklar ist, wie die Regeln für das Triggern einer Übersteuerung festgelegt sind. Dies gilt auch für die Offline-Statistiken, wie sie von vielen DAWs angezeigt werden können. Daher kann man aus heutiger Sicht mit Fug und Recht behaupten, dass SPPM ein völlig unzureichendes Messverfahren für die Evaluierung der maximalen Peak-Werte eines digitalen Audiosignals ist.
Abhilfe soll deshalb das True-Peak-Level-Verfahren schaffen. TPL ist von der ITU im Papier BS 1770 definiert. Die EBU hat diesen Standard übernommen und in die R128 Recommendations einfließen lassen. Daher ist TPL erstmals ein globaler Standard zur Messung von Pegelspitzen. Wie das funktioniert und was TPL ausmacht, soll im Folgenden näher erläutert werden:
Hörbare Verzerrungen selbst bei -0,3 dBFS (SPPM)
Um den Underread der SPPM-Messung abzufedern, arbeitet das TPL-Verfahren im vierfachen Oversampling. Oversampling bedeutet Verdoppelung der Samplefrequenz. Bei vierfachem Oversampling liegt also die 16-fache Samplefrequenz des Audiosignals an. Die interpolierten Werte müssen dabei jedoch so berechnet werden, dass sie ihren analogen Pendants entsprechen, wie in der folgenden Abbildung dargestellt wird. Eine lineare Interpolation würde nicht zum Ziel führen, da die linear interpolierten Samples zwischen zwei vollausgesteuerten Samples ebenfalls 0 dBFS entsprechen würden.
Misst man Signale nun im vierfachen Oversampling mit der gleichen Regel »Maximal ein Sample in Folge darf bis 0 dBFS reichen«, so sind fast alle Durchschießer zu erfassen. Bei vierfachem Oversampling existiert übrigens nur noch ein Underread von 0,5 dB. Dieser Wert halbiert sich dabei mit jedem weiteren Oversampling-Vorgang. Da das Oversampling jedoch sehr rechenintensiv ist, hat man sich darauf geeinigt, es bei vierfachem Oversampling zu belassen und einen maximalen Aussteuerungspegel festzulegen (PML = Permitted Maximum Level). Dieser liegt nun global bei -1 dB TP und gilt zukünftig für den TV-Bereich, später auch für das Radio. Nebeneffekt: Diese Grenze definiert einen zusätzlichen Headroom von 0,5 dB, der bei nachträglicher Datenreduktion, beispielsweise bei der MP3-Encodierung, vor weiteren Überschießern schützen soll.
Die genauen Hintergründe zu erläutern, würde an dieser Stelle zu weit führen. Jeder Mastering-Ingenieur sollte jedoch wissen, dass jede Datenreduktion aus physikalisch leicht nachvollziehbaren Gründen zu Peak-Erhöhungen führt. Konsequenz: Mangelndes Wissen hierüber hat zum historisch schlechtesten Sound in der Radiolandschaft geführt. Das übersteuerte PCM-Master der CD wird für den Sendeserver in MP2 oder MP3 gewandelt, in der Regel ohne zuvor im Pegel reduziert zu werden, wie es richtig wäre. Das nun mit zusätzlichen Verzerrungen versehene »Sendemaster« wird zur Sendung in PCM zurückgewandelt, um dann vom Sende-Limiter noch einmal verzerrt zu werden. Aus diesem Grunde predige ich, dass »laut« im Radio nie besser, sondern immer schlechter ist.
Doch wie sieht es mit TPL im Mastering aus? Es ist kaum zu erwarten, dass CD-Master ab morgen mit einem Dezibel Headroom nach TP gepegelt werden, auch wenn es sicherlich gut wäre. Zu groß ist immer noch der überholte und widerlegte Glaube, dass »laut« besser verkauft. Die Musikindustrie würde jedoch wieder einen gewaltigen Schritt in Richtung Klangqualität machen, wenn Master zukünftig mit 0,5 dB Headroom nach TPL-Norm ausgesteuert werden.
Damit dies gelingt, bieten sich verschiedene Optionen an: Sie brauchen entweder ein Meter, dass TPL anzeigt oder Sie verlassen sich auf einen guten Brickwall-Limiter, der auf -0,5 dBFS eingestellt wird. Ich persönlich empfehle den Sonnox Oxford Limiter, da er im vierfachen Oversampling arbeitet, über eine Funktion verfügt, die Peak-Werte über 0 dBFS anzeigt und somit quasi ein Vorreiter des TPL-Verfahrens ist. Auf jeden Fall sollten Sie vermeiden, dass Samplekolonnen gegen einen Maximalwert laufen, ganz gleich ob dieser bei 0 dBFS oder -1 dBFS liegt, unabhängig davon mit welchem Messverfahren gemessen wird.
Zum Abschluss seien noch ein paar dynamikmotivierende Worte aus meiner Praxis als Mastering-Ingenieur erlaubt: Da ich mich bereits sehr lange für mehr Dynamik im Mastering einsetze, konnte ich viele meiner Kunden davon überzeugen, dass ein sauber nach TPL gepegeltes, maßvoll komprimiertes Master zu besseren Ergebnissen im Radio, auf Download-Plattformen und im Club führt. Tun Sie sich selbst einmal den Gefallen und spielen in einem Club zwei Varianten eines Masters ab: Laut wie üblich und etwas leiser nach TPL ausgesteuert. Sie werden bemerken, dass das leisere Master mehr Druck erzeugt und die Menschen sich davon besser angesprochen fühlen, weil die Transienten sauberer übertragen werden. Führen Sie sich dabei vor Augen, dass Transienten nicht nur ein digitaler Abdruck von analogen Spannungsausschlägen sind, sondern elementare Bestandteile von Klangereignissen, die für unser Gehirn unerlässlich sind, um Schall in wahrnehmbare und für uns verarbeitbare Hörerlebnisse zu verwandeln.
Wichtig: Je entstellter Transienten übertragen, respektive limitiert werden, desto mehr Hirnleistung ist erforderlich, um das Klangereignis als solches wahrnehmen zu können. Dies ist sogar in Studien nachgewiesen worden (z.B. in »Multichannel Fast-Acting Dynamic Range Compression Hinders Performance by Young, Normal Hearing Listeners in a Two-Talker Separation Task«, University of Cambridge von M. Stone, B. Moore & C. Füllgrabe) und belegt eindrücklich , weshalb Hörer unbewusst von hyperkomprimierter Musik leichter genervt sind und sich dem Musikhören unter gewissen Bedingungen schließlich entziehen wollen. Dynamic sells more.
Ich hoffe jedenfalls, Ihnen einen grundlegenden Einblick in die Welt der Peak-Messung gegeben zu haben und Ihnen gleichzeitig einen Anreiz geliefert zu haben, Ihre zukünftigen Masterings nach TPL zu pegeln. Die Hörer werden es Ihnen danken. Im Rahmen der Ausbildung an der Mastering Academy werden die Themenkomplexe Metering und R128 selbstverständlich noch eingehender betrachtet. Mehr dazu erfahren Sie auf www.Mastering-Academy.de
zu 'Die ganze Wahrheit über True Peak Level: Warum die meisten CDs übersteuert sind'
Paul 13. Mai 2012 13:10 Uhr
War auch wirklich Zeit für einen neuen Standard! Endlich ist es soweit - hoffentlich lässt der Lautheitswahn langsam nach.
mat 13. Mai 2012 13:28 Uhr
Klasse Artikel!
Vor allem die Aussage, dass plattgemachte Musik mental anstrengender ist!
Genau die Transienten sind entscheidend z.b. für das Erkennen eines akkustischen Instrumentes und erzeugen Durchsichtigkeit und Klarheit im Mix.
Ich kann in fast keine Klubs mehr gehen deshalb, macht mich richtig gehend aggressiv...
Tja, wenn man es einmal bemerkt hat ist es immer da ... :)
Philipp 13. Mai 2012 15:08 Uhr
Klasse Artikel. Ich hoffe, dass sich in Zukunft möglichst viele Produktionen an diesen neuen Standard halten werden.
Der Artikel ist auch für Personen, die sich noch nicht so intensiv mit dem Thema auseinandergesetzt haben sehr verständlich.
Macht weiter so!
Torador 13. Mai 2012 16:25 Uhr
Vielen Dank für diesen sehr interessanten Artikel. Ich freue mich immer, wenn es auf Delamar mal wieder etwas von Friedemann Tischmeyer zu lesen gibt.
Ramon 14. Mai 2012 10:37 Uhr
Niemand dachte im Traum daran, dass das bislang dynamischste Medium (CD = 96 dB Dynamikumfang) eines Tages dazu verwendet werden wird, die historisch undynamischsten Aufnahmen zu (re-)produzieren[...].
Ich musste traurig lachen, als ich das laß. Es ist so verrückt und nüchtern betrachtet völlig unerstrebenswert und unvorstellbar, das auch nur eine geringe Minderheit soetwas als erstrebenswert ansehen könne, aber es ist einfach wahr. Wenn die Realität so bescheuert ist, das sie einen mehr amüsiert als alle Kabarettisten zusammen, ist man im Jahre 2012 angekommen. Wohin das wohl geht? :D
Eric 14. Mai 2012 12:37 Uhr
Das schlimmste ist ja, das die Leute diesen überkomprimierten Sound auch noch als Normal empfinden. Wenn ich meinen Track dynamisch lasse, bekomme ich gleich wieder zu hören:" das klingt nicht fett genug", und wenn ich es richtig übertreibe" Woooooooooa - klingt das Fett! Die meisten Leute haben gar keine Ahnung und denken, normla ist das, was man so im Radio hört.
alexander 14. Mai 2012 18:26 Uhr
wer sich damit nicht auseinandersetzt dem fällt diese lautheit sicher nicht bewusst auf.
ich für meinen teil finde dieses laute, nur laut und noch lauter völlig lächerlich.
es hat doch jede anlage einen volumenregler. wer also laut hören möchte dreht einfach laut.
also wozu der stuss ???
Marcel 15. Mai 2012 07:52 Uhr
Nur um dich ein wenig zu korregieren. Es geht bei der hier umschriebenen Lautheit um die Dichte der leisen und lauten Anteile eines Signals. Mit der Lauheit ist somit nicht direkt die Lautstärke sondern die empfundene Dichte eines Titels gemeint.
Um es anders aus zu drücken, ein Stück welches derart komprimiert und bearbeitet wurde, dass du in einer Wellenformdartsellung nur noch die allseits genannte "dicke Wurst" siehst, wirst du immer als Laut und somit auch recht undynamisch empfinden. Während du ein anderen Titel der nicht so ausgequetscht wurde auch an den dynamischen Passagen erkennst, da hier sehr wohl auch die Lautstärke bzw. die empfundeneLautheit etwas runter geht. Zum Vergleich hör dir einfach ein Orchesterstück an und danach z.B. die Ursprünglich gemasterte Scheibe von Metallica (Ich meine das müsste das letzte Album gewesen sein). Die Scheibe wurde im endeffekt noch mal neu gemastert, da gerade bei der Scheibe derart übertrieben wurde das es auch wirklich keiner mehr gut fand. Eine Grenz Erscheinung ist das Album 10.000 von Tool. Hier wurde scheinbar meisterleistung vollbracht, es hat eines der höchsten Lautheiten für ein Album welches trotzdessen SEHR Dynamisch ist.
Naja usw.
IrgendeinThomas 15. Mai 2012 10:28 Uhr
Ja das mit dem Volumenregler stimmt schon, aber das Problem ist das sich nunmal fast jede Musikproduktion an der Konkurrenz orientiert um nicht bei direktem Vergleichshören des Konsumenten (über zB diverse Internetplattformen) lautstärkemäßig abzufallen. Leider ist es nunmal so das lautere Musistücke bei den meisten Konsumenten präsenter, gefälliger im Vergleich zu den weniger komprimierten erscheinen. Da wird halt dann wohl oftmals eher zum nächsten Track weitergeklickt als den Volumenregler hochzudrehn. Mir kommt das so ähnlich vor wie in der Nahrungsmittelindustrie mit den künstlichen Aromastoffen die schon überall eingesetzt werden und intensiver schmecken, daher vom Konsumenten im Regelfall bevorzugt, so wie sich auch zwangsläufig mit der Zeit die Geschmacksnerven an diesen intensiven Geschmack gewöhnen und demzufolge die diesbezügliche natürliche Frucht im Vergleich dazu als langweilig, weniger gut schmeckend eingestuft wird.
Ich denke bei diesem Radio/Mainstreamsound ist es ähnlich - hier ist wohl auch schon ein Modetrend und Gewohnheitseffekt enstanden und meine Vermutung ist das dynamischere Musikstücke bei den meisten Konsumenten weniger Anklang finden (und sei es nur unbewußt) als würde man die gleichen jeweiligen Musikstücke stark komprimieren. Es läuft bei Beidem nur auf "mehr und noch mehr" hinaus und wird wohl sowohl als auch schwer sein das Ganze zu durchbrechen und Konsumenten wieder mehr, ob es jetzt natürlicher Geschmack oder Transienten sind, zu sensibilisieren.
IrgendeinThomas 15. Mai 2012 10:35 Uhr
...PS Marcel hat natürlich recht und das meinte ich auch in meinem Beitrag mit "Lautheit" (komprimiert) aber natürlich könnte man auch bei weniger komprimierten Stücken am Volumenregler drehen, was aber den Kompressionseffekt nicht ersetzt insofern man diesen haben möchte also auf Dynamik und Transienten pfeift.;-)
Burger 18. Mai 2012 11:00 Uhr
Friedemann,
danke für den Artikel!
Ich habe derzeit viel mit Rundfunk zu tun und habe nach dem Artikel das Gefühl, ein bisschen Licht ins Dunkel gebracht zu haben. Endlich kann man mal nachvollziehen, was Grundlage für Messungen bei R128 ist. Danke dafür!
Sehr schön erklärt, prima Grafiken, weiter so!
Man merkt wieder einmal, wie engagiert du dich gegen die Lautheitswahn einsetzt.
Eine Sache stößt mir nur leicht auf, das Klangbeispiel "Molotov" von Seeed. Die abgerundeten Peaks, die man dort sieht (und die sicherlich das eigentliche Phänomen gut erklären), sind m.E. doch eher Bandsättigungseffekte a la UAD Studer A800... klingt zumindest ganz verdächtig danach. Oder habe ich da einfach deine Intention missverstanden?
Ach ja, Kudos an alle anderen. Musik ohne Transienten ist wie eine Wartezimmer oder Doktor.
Grüße aus Berlin
Luksimlau 20. Mai 2012 10:29 Uhr
Sehr schöner Beitrag. Haben sie vielleicht einen Tipp für ein kostenloses, bzw. günstiges Metering Tool, das TPL misst?
Und in der dritten Grafik von Oben ist ein Headroom ab -0,3db eingezeichnet, im Tesxt ist jedoch von -0,5db die Rede, oder habe ich da etwas Missverstanden?
Vielen Dank und Viele Grüße :)
Sascha Becks 24. Mai 2012 11:19 Uhr
Vielen Dank für diesen hervorragenden Artikel!
Ich hoffe, das dieser Lautheitswahn in absehbarer Zukunft ein Ende nimmt.
Markus 05. Sep 2012 15:44 Uhr
"Trotzdem bieten fast alle DAWs lediglich Peak-Messungen nach SPPM an, wobei zumeist unklar ist, wie die Regeln für das Triggern einer Übersteuerung festgelegt sind."
Ich möchte hier Samplitude von Magix positiv erwähnen. In der aktuellen Version ProX kann sowohl TPM mit Oversampling, die Übersteuerungsschwelle und die Anzahl der maximal erlaubten maximal Samples eingestellt werden.
amateurbedarf 21. Okt 2014 18:55 Uhr
ich arbeite seit jahren mit cubase und bin auch in diesen wahn abgedriftet. du hast mir mit deinem artikel die flügel gestutzt und mich wieder auf den richtigen pfad gebracht.
auch grüße aus berlin
ein software Entwickler 26. Jul 2018 19:25 Uhr
moderne DAW und VST arbeiten alle mit mind. 32 bit im mixer. da sind die unteren 24 bit der Bereich bis 0 db. und die oberen 8 bit dann der bereich über 0 db. 8 bit sind 48 db. also kann so ne 32 bit max +48 db true peak erfassen
Das Problem mit dem clippen und falschen werten, kommt wahrscheinlich dadurch zustande, wenn die projekt sample rate anders als die export sample rate ist. da werden ja komplett neue samples errechnet. wer also sein project mit 48 khz einpegelt. kann sich wundern, dass der EQ oder was da sonst drin hängt plötzlich bei der sample rate von 44 khz einen höheren wert als 0 db ausgibt. dass erzeugt dann clipping. der 1 db headroom mildert es natürlich, kann aber auch mehr nötig sein in bestimmten fällen aber wer CD und DVD erstellt müsste den pegel einmal bei 44.1 und einmal bei 48 khz messen.
aufklärer 15. Aug 2018 10:50 Uhr
da gibt es ein youtube Video in dem mit dem Oszilloskop gemessen wurde, dass die angezeigten Werte der True peek Levelmeter falsch sind und natürlich auch keine Übersteuerung entsteht. eine genauere Beschreibung ist in dem text unter dem Video. https://www.youtube.com/watch?v=C1LSiwFQPis