7 Wege, um die Maskierung von Spuren zu verhindern – mit Hörbeispielen

5
SHARES
Maskierung

Die Maskierung von Instrumenten und anderen Spuren in deinem Mix kannst Du mit diesen sieben Methoden zuverlässig verhindern - los geht's ... | Bild: gajman [Ausschnitt, CC BY 2.0]

anzeige

Maskierung von Instrumenten verhindern

Die Maskierung von Instrumenten bzw. sonstigen Elementen in einem Mix ist in ein in der Regel unerwünschter Effekt. Er ensteht, wenn sich die Signale mehrerer Spuren über dieselben oder weitgehend ähnliche Frequenzbereiche erstrecken.

Das führt dazu, dass eines dieser Elemente im Mixdown dominiert und das andere kaum noch heraussticht. Sehr auffällig wird der Maskierungseffekt dann, wenn etwa ein oder mehrere Musikinstrumente die Vocals maskieren und diese dadurch kaum zu verstehen sind.

In der Regel sollen aber alle Spuren im Mix ihren eigenen Platz bekommen. Im Gegensatz dazu ist eine Maskierung beim sogenannten Layering jedoch gerade erwünscht – dabei soll der Sound einfach nur »angedickt« werden, indem er unisono oder in Oktavabständen gespielt wird.

 

Hands-On: Maskierung verhindern

Das verwendete Musikstück ist das Playback zu einem Kinderlied, das im Unterricht an der Grundschule zu pädagogischen Zwecken eingesetzt wird. Es ist gewiss kein Meisterwerk und mutet ziemlich roh an, doch für unseren Zweck – die Maskierung beseitigen – eignet es sich bestens.

Zuerst das Original, dann das bearbeitete Endprodukt, auf das wir gleich Schritt für Schritt gemeinsam hinarbeiten werden:

Original – starker Maskierungseffekt

Bearbeitung – Maskierung verschwunden

 

1. Das Arrangement ändern + die Spur neu aufnehmen

Mit Sicherheit die beste Methode, eine Maskierung zu verhindern. Gerade in diesem Song würde es sich lohnen, bei den beiden Spuren Gitarre und Piano nochmals auf kompositorischer Ebene einzusteigen und die Patterns bzw. Riffs zu verändern. Beispielsweise wäre es möglich, durch das geschickte Einsetzen eines Arpeggios auf einer der Musikinstrumente die Verdeckung für das menschliche Ohr weitestgehend aufzuheben.

In einigen Fällen ist das nicht machbar bzw. gewünscht, da sollen Instrumente gerade dasselbe rhythmische Muster spielen. Hier könnte das Spielen eines anderen Instruments, das eine etwas andere Klangfarbe hat, helfen.

 

2. Muten der konkurrierenden Spur

Schalte jeweils eine der konkurrierenden Spuren stumm, um die Maskierung zu verhindern. Wenn Spur A spielt, hat Spur B Pause.

Gerade wenn ein Mix ohnehin schon sehr voll ist, ist diese Variante vorzuziehen. So gibt es auf einen Schlag überhaupt keine Maskierung mehr und das Problem ist behoben. Damit das Ganze aber nicht zu eindimensional wird, kannst Du beispielsweise …

  • In der Strophe das Piano stummschalten
  • Im Chorus die Gitarre stummschalten

Das behebt nicht nur die Maskierung, sondern macht das Arrangement insgesamt auch noch etwas spannender. Veränderungen beleben den Ablauf eines jeden Songs und halten das Interesse des Hörers aufrecht. Selbst ein schlichter Wechsel von einem Instrument auf ein anderes kann für die nötige Frische sorgen.

 

3. Die Lautstärke der maskierenden Spur senken

Ein simpler Trick: Drehe die dominante Spur leiser. Sofern das mit deiner kompositorischen Idee vereinbar ist, stellt diese Ausbalancierung der betreffenden Elemente ein sehr schnelles, bequemes Mittel gegen den Maskierungseffekt dar.

Hier habe ich die Lautstärke des Pianos so weit abgesenkt, bis die Gitarrenspur nur noch wenig verdeckt wird. Das Klavier bewegt sich dabei stets zwischen hörbar und nur noch fühlbar und erlaubt es der Gitarre, sich durch einen gewissen »Bauch« bzw. ein gewisses Sustain bemerkbar zu machen.

Lautstärke - Maskierung

Ein Kernaspekt: Die Spurenlautstärken

Auch wenn das Piano kaum in seinen Details hörbar bleibt – im Vergleich zum Stummschalten würde das Wegfallen sofort bemerkt werden.

Behalte jedoch im Hinterkopf, dass eine leisergedrehte Spur vielleicht auf einmal mit einer dritten Spur in Konkurrenz tritt.

 

4. Transposition einer der beiden Spuren

Du kannst eine der Spuren eine andere Ton- und damit Frequenzlage transponieren. Hier hörst Du das Klavier eine Oktave tiefer:

Die Transposition bietet sich natürlich vor allem bei Spuren mit virtuellen Instrumenten (vornehmlich Synthesizer) an. Denn hier muss nichts neuaufgenommen werden und es werden keine Samples in der Tonhöhe modifiziert, was ja stets eine gewissen Qualitätsverlust mit sich bringt.

 

5. Den Equalizer nutzen

Gerade eben hast Du kennengelernt, dass die Transposition eines Instruments ein wirksames Mittel gegen den Maskierungseffekt sein kann. Eng verwandt damit ist der geschickte Einsatz eines Equalizers auf den konkurrierenden Spuren. Es geht darum, das hervorzuhebende Instrument in einem seiner charakteristischen, den Song prägenden Frequenzbereiche anzuheben, das andere Instrument hingegeben in (ungefähr) demselben Frequenzbereich abzusenken:

Hier habe ich mit Hoch- und Tiefpassfiltern jeweils entgegengesetzte Frequenzbereiche aus den Spuren ausgeblendet, um die Maskierung zu verhindern.

  • Gitarre: High-Shelf-Filter zur Anhebung der Höhen ab 5 kHz aufwärts
  • Piano: High-Shelf-Filter zur Absenkung der Höhen ab 6 kHz aufwärts
Maskierung - Frequenzen

Contra Maskierung: Frequenzen bei Spur A anheben und bei Spur B absenken

Warum das? Nun, bei der Gitarre befindet sich oberhalb von 5 kHz der typische helle Finger- oder Plektren-Anschlag. Beim Piano habe ich ungefähr denselben Bereich abgesenkt. So wird die Kontrastierung noch verstärkt und die Maskierung weiter verringert.

Passend dazu: Equalizing nach Instrument »

 

6. Panning anpassen

Nutze den Balance-Regler auf der Spur deines Mischpults bzw. des Mixers in der DAW-Software – durch kontrastierendes Panning zweier Elemente kann ihre Maskierung wirksam bekämpft werden. Die Akustische Trennung im Stereopanorama sorgt für eine deutlich bessere Wahrnehmbarkeit der Einzelspuren, in unserem Beispiel wie gehabt a) das Piano und b) die Gitarre:

  • Piano: auf ~14 Uhr (halbrechts)
  • Gitarre: auf ~10 Uhr (halblinks)

Die Symmetrie ist in diesem Fall meinem persönlichen Geschmack geschuldet, selbstredend können auch andere Einstellungen und Verteilungen im Panorama zum Erfolg führen.

Ein extremeres Beispiel sind zwei Rhythmus-Gitarren, von denen eine komplett nach links und die andere bis zum Anschlag nach rechts gedreht wird. Beide Gitarrenspuren sind dann gut verständlich und kommen sich nicht mehr ins Gehege.

 

7. Bonustipp: Phase verschieben

Durch eine Phasenverschiebung des Signals kannst Du verhindern, dass es zu sogenannten Phasenauslöschungen kommt, bei dem sich zwei Signale bzw. bestimmte Anteile mehrerer Signale so überlagern, dass sie sich gegenseitig in bestimmten Frequenzbereichen abschwächen oder ganz auslöschen.

Phasenauslöschung

Wenn Phasenauslöschung zur Maskierung führt, musst Du die Phase verschieben

 

Methoden gegen den Maskierungseffekt kombinieren

Meistens reicht eine Maßnahme alleine nicht aus, um zwei konkurrierende Spuren erfolgreich voneinander zu trennen. Daher solltest Du mehrere der oben genannten Tipps kombinieren. So kannst die Einzelmethoden eventuell subtiler einsetzen. Die Mischung macht’s.

So findest Du hier unten noch einmal unser Endprodukt, das aus der Kombination dreier Methoden entstanden ist: Änderungen in den Spurenlautstärken, den Klangfarben und der Verteilung im Stereopanorama. Zum bequemen Vergleich zunächst aber noch einmal das Orginal mit seiner deutlichen Maskierung:

Original

Lautstärke + Klangfarbe + Panning abgestimmt:

 

Fazit und Schlussgedanken zur Maskierung

Um es abermals zu betonen: Am besten ist es, bereits bei Songwriting und Komposition durch ein sparsames und/oder abwechslungsreiches Arrangement der Elemente eine Maskierung von vornherein zu vermeiden.

Da das künstlerisch aber keineswegs immer erwünscht ist und sich Neuaufnahmen nicht so einfach realisieren lassen, kann dieser Artikel Gold wert sein. Dabei ist vor allem die Kombination der Mittel zu empfehlen.

Kennst Du noch weitere Tricks gegen die Maskierung? Hast Du Ergänzungen oder Korrekturen zu den hier vorgestellten Tipps parat? Welche Werkzeuge nutzt Du, um dem Maskierungseffekt den Garaus zu machen? Wir sind gespannt auf dein Feedback und freuen uns riesig, wenn dir dieser Artikel weitergeholfen hast – teile ihn auf Facebook, Google+ oder in deinem Lieblingsforum, empfiehl ihn auf anderen Wegen weiter. Danke!

Mehr zum Thema:
        


Lesermeinungen (16)

zu '7 Wege, um die Maskierung von Spuren zu verhindern – mit Hörbeispielen'

  • marcelo   13. Feb 2011   14:45 UhrAntworten

    heyy ganz erleuchtende tolle tipps hier !. vielen dank für eure arbeit !

  • Keihne AhnungVonNix   04. Jan 2013   21:38 UhrAntworten

    Also irgendwie klingen die Tracks alle fast gleich für mich. Die Gitarre ist kaum zu hören ??? Liegt wohl an meinen Boxen.

    • Milli Milhouse   10. Mrz 2017   15:54 UhrAntworten

      ich höre bei den ganzen varianten auch kaum einen unterschied. einige unbearbeitete klingen geringfügig dumpfer (weniger höhen), ansonsten wirklich kaum unterschiede hörbar - ob genau das mit der maskierung mein generelles problem beim produzieren ist? verglichen mit anderen tracks im gleichen genre (techno & co) fehlt meinen werken etwas dynamik und vorallem der druck, obwohl der pegel gleich ist klingt alles um 40% leiser

  • Eddie Marshall   07. Jan 2013   16:45 UhrAntworten

    Nützliche Hörbeispiele, Super Arbeit!

  • Metamorphose   07. Jan 2013   20:30 UhrAntworten

    Ein Tutorial, das einem Einsteiger bestimmt eine Hilfe sein wird.

    Eine Frage bleibt mir aber doch noch: Wo ist die Gitarre? Ist es eine Akustik-Gitarre, eine E-Gitarre oder gar ein schlechtes per MIDI getriggertes Sample?

    An meinem AKG K271 MKII Kopfhörer wird es wohl eher nicht liegen, dass ich sie nicht höre (alle anderen Instrumente erkenne ich). :D

  • Jürgen Bromant   07. Jan 2013   23:31 UhrAntworten

    Interessantes Tutorial! Aber ich muss mich meinen Vorrednern anschließen, die Gitarre ist kaum bis gar nicht zu hören. Auf der linken Seite höre ich etwas, das eher wie ein Midi-Instrument klingt.

  • colophon   08. Jan 2013   09:30 UhrAntworten

    as easy as that. so muss das! :)

    @Metamorphose:
    Das was sich beim ersten Bsp. (Arrangement, tieferes Klavier) nicht verändert, soll die Gitarre sein schätze ich - hätte das auch nie als Gitarre erkannt - aber wie ein Klavier klingt's noch weniger ;)

  • Koch Juergen   04. Feb 2013   14:33 UhrAntworten

    Juergen Koch,

    kann mich der Mehrzahl der Hörer nur anschließen, das war alles andere als ein gewinnbringendes Hörbeispiel. Was der Autor rüberbringen wollte, ging offenbar in die Hosen! Trotzdem, netter Versuch!

  • Thomas Supersynthesized   18. Feb 2013   15:29 UhrAntworten

    Hätte noch was hinzuzufügen: Oft lassen sich Transienten zeitlich trennen: zB bei Kick und Bass, den Bass einfach ein paar Millisekunden nach hinten verschieben - so werden keine Transienten überlagert und es klingt auch transparenter

  • Flo   18. Feb 2013   16:31 UhrAntworten

    wieder ein wenig schlauer, danke!
    Übrigens gibt's auch die sog. Nachverdeckung, also wenn leise Signale durch einen direkt vorangegangenen sehr lauten Sound nicht unmittelbar fürs Gehör wahrnehmbar sind aber das is dann ein anderes Thema ;)
    Grüße, Flo

  • BeatKreator ST   18. Feb 2013   17:22 UhrAntworten

    Bei Tip 4 kann man es am besten hören, allerdings muss ich auch sagen dass ich die Gitarre als solche nicht erkannt hätte. Es scheint mir eine klare elektrische Gitarre zu sein. Dennoch weiß worauf der Autor hinaus will und ich fand dies hier sehr hilfreich.

  • Mr. Freeze   19. Feb 2013   08:52 UhrAntworten

    Hmm, nicht schlecht.
    Aber ist Tipp 4 nicht schon in Tipp 1 enthalten?
    Und was ist mit Sidechaining?

    Beste Grüße
    Freeze

  • Patrick   19. Feb 2013   11:05 UhrAntworten

    Ein weiterer Tipp ist der gezielte Einsatz von Kompression um bei stark dynamischem Material Platz zu schaffen für andere Spuren.

    Noch ein Tipp sind veränderungen auf der Zeitachse durch Delay und Hall, dadurch entsteht mehr Tiefe und einzelne Intrumente lassen sich psychoakustisch besser innerhalb eines Raumes wahrnehmen.

    Ein weiterer Tipp: z.B. Gitarren, die nach ganz links und rechts gepannt sind in eine Gruppe zu routen und dort eine Stereoverbreiterung vornehmen. Das schafft mehr Platz in der Mitte für Stimme und co.

    Und noch einer: Kick, Stimme und Bass ganz leicht von der Mitte pannen z.B. L5 oder R5 ... das nimmt man kaum wahr aber auch hier entsteht mehr Platz.

    Und noch einer: Beim Piano die Präsenz rausnehmen bei ca. 2kHz, damit die Stimme dort besser durchkommt.

    Und noch einer: Beim Mischen eher mit Absenkendem EQ arbeiten, denn dadurch entsteht immer mehr Raum für andere Spuren. Nur anheben, was auch bewußt hervorstechen soll.

    Und noch einer: Den EQ immer im Zusammenhang drehen, also während man den gesamten Song hört. Dabei ist es völlig egal ob die Spur einzeln abgehört schlecht klingt.

    Und noch einer: Schau Dir die Frequenzen der einzelnen Spuren an. Wo sind die Grundfrequenzen und wo die Obertöne. SPAN von Voxengo ist zB kostenlos erhältlich und kann Dir dabei sehr helfen. Wenn Du siehst, dass der Bass und die Bassdrum beide bei zB 63Hz Ihre Grundfrequenz haben, dann kannst Du entweder den Song in eine andere Tonart transponieren, eine andere Bassdrum wählen oder den Bass bei zB 80 Hz betonen mit einer Güte von 1.4 und 1-2 db
    bei gleichzeitiger Absenkung der Frequenz (80 Hz) auf der Kick mit einer Güte von 3-4 und -1 oder 2 db.
    Also immer breiter anheben und schmalbandiger absenken.

    Und noch einer: Die Drums sind mit am Wichtigsten, da sie vom tiefen Bass (kick) bis zu den höchsten Höhen (Becken) alles abdecken. Schaffe in der Mitte Platz. Senke bei der Kick die Frequenzen irgendwo zwischen 300-500 Hz ab. Etwas Höher kannst Du bei der Snare aufräumen und bei 800 HZ hat die Snare Ihr Boing, was weggenommen Platz schaffen kann.
    Overheads klingen immer besser, wenn man 500 Hz oder die Oktave drüber um die 1000-1100 Hz raus nimmt. Gleiches gilt für Raummikros und auch die meisten Loops.

    Und noch einer: Alle Spuren Highpassen, oder Lowcutten (ist das Gleiche), dadurch werden kick und Bass klar.

    Und noch einer: Das highpassen kennen vielleicht die Meisten aber nutzt Ihr auch das Lowpassen oder highcutten ?
    Gitarren brauchen keine 6-20 kHz Frequenzen, dadurch verdecken sie nur die Becken und Stimmen.

    Und noch einer: Nimm bei Streicher was weg bei ca. 1 kHz, das schafft auch noch einmal Platz für die Instrumente, die vorne sein sollen. Allgemein ist der Bereich von 1-3 kHz der Bereich der Präsenz, wenn etwas nach hinten soll, mach es leiser oder dreh diesen Bereich raus und nicht bei dem rein, der vorne sein soll.

    Und noch einer: Route Deine Spuren in Subgroups (Drumsbuss, Vocalbuss, Keybuss etc.) und nimm bei all den Gruppen im Bereich 250 Hz 0,5-1db weg mit einer Güte von 3-4. Dieser Bereich müllt oft den Song zu und klingt dann wesentlich luftiger.

    Und noch einer: Frag Dich immer, wenn Du das Gefühl hast eine Spur braucht mehr Höhen, ob sie nicht vielleicht einfach nur wenig Bass braucht ... gleiches gilt auch anders herum. Wenn Du bei 250 etwas wegnimmst ist es so als würdest Du bei 5 kHz etwas reindrehen.

    Und noch einer: Carlos ich sollte für Dich schreiben ;-)

  • Raphael J.   22. Feb 2013   10:12 UhrAntworten

    Es ist sehr hilfreich einen visuellen Bezug zum Frequenzgehalt seiner Komposition zu haben:

    Specan32 ist ein dem legendären Klark Teknik DN60 Real Time Analyser nachempfundenes VST Plug-in, welches dem Original Hardware RTA in gar nichts nachsteht:

    bedroomproducersblog.com/2010/10/08/specan32-a-freeware-vst-spectrum-analyzer/

    Mit diesem kann man die Frequenz 'isolieren' welche durch ein anderes "Instrument" in einem Mix verdeckt wird und entsprechend mit EQ, Lautstärkereglung oder Auswahl eines anderen Instrumentes entgegen steuern.

    Bei aufwändigen Kompositionen; also Kompositionen mit sehr viel Spuren und sehr verschiedenem Klangmaterial ist es angebracht auf übertrieben obertonhaltige Klänge zu verzichten, da diese Instrumente in höheren Tonlagen verdecken oder maskieren.

    Es ist ratsam die verschiedenen Frequenzbereiche welche spezifisch für diverse Instrumente ausgelegt sind, auch für diese zu 'reservieren'.

    Ein Fehler der sehtr oft gemacht wird ist den Bereich der Gesangsstimme schon so mit Instrumenten zuzuknallen, dass die Stimme nur mit Kompressor/Limiter 'über' dem mitschwingenden Tonmaterial zu hören ist; klar; hier kann man mit Side-chaining (Stimme steuert die Lautstärke des 'störenden' Materials) tolle Effekte erzielen... aber... muss das wirklcih sein?

    Eine ausgewogene Komposition sollte der Dynamik und der nativen 'Frequenzansässigkeit' der einzelnen Instrument Rechnung tragen.

    Lieben Gruß aus Luxemburg
    Raphaël J.

  • Andi   13. Aug 2013   15:38 UhrAntworten

    Vielen Dank !!!!

  • Rob   14. Mrz 2017   10:04 UhrAntworten

    Was hier noch gar nicht erwähnt wurde und immer wieder für extreme Maskierungen sorgen kann, ist, dass hier in dem Beispiel sowohl Gitarre und Klavier immer absolut rhythmisch korrekt genau auf dem gleichen Punkt beginnen zu spielen (Computer- oder Midi-Effekt).
    Das ist gar nicht nicht gut, weil man die einzelnen Transienten beider Instrumente nicht mehr wahrnimmt.
    Eine laute Gitarre und ein laut gespieltes Rock-Piano können fast den gleichen scharfen Anschlagsklang haben.
    Daher tut man sich hier im Hörbeispiel auch so schwer, die Gitarre vom Klavier zu unterscheiden. Dabei ist das Klavier hier wesentlich weicher im Klang als die Gitarre, wenn man genau hinhört. Die etwas schärferen Transienten kommen von der Gitarre. Da beide Instrumente aber Hyperkorrekt immer zusammen beginnen und annähernd rhythmisch haargenau gleich spielen, hört man da kaum einen Unterschied, egal was da ausprobiert wird. Es ist ja auch nicht menschlich, was da gerade passiert, ein Fehler im Arrangement!

    Obwohl ja jeder Instrumentalist bemüht ist, im Tempo korrekt und sauber zu spielen, gibt es dennoch ständig sehr kleine fast unhörbare Abweichungen im Zusammenspiel, die das Menschliche in der Musik erst ausmachen. Allein das Klavier und die Gitarre an vielen kleinen zufälligen unterschiedlichen Stellen um ein Paar Millisekunden gegeneinander unterschieden später oder früher beginnen zu lassen, bewirkt wunder!
    Damit meine ich aber nicht die oben besprochene Phasenverschiebung (Die ja kaum Auslöschungen eines komplexen Signals auslösen wird, sondern eher kammfilterähnliche Effekte hervorruft, die man auch mit einem Phaser generieren könnte). Es geht also nicht um ganze Regionen, die zeitlich verschoben werden müssen, sondern um das viel zu genaue und unmöglich korrekte Timing beider Instrumente.
    Beim Klavierspiel allein zum Beispiel nutzt man diesen Effekt, um zB. den einzeln gespielten Linien "Melodie/harmonisch-rhythmische Begleitung/Bass" mehr hörbaren Raum zu verschaffen. (Eine musikalisch "schwerere" Melodielinie zum Beispiel wird etwas verzögert zum Rest gespielt. Das gibt Ihr mehr Schwere und Deutlichkeit im Spiel. Dies ist auch bei mehrstimmiger Musik wie zum Beispiel in Bachs Fugen ein wichtiges Stilmittel, die einzelnen Stimmen noch zusätzlich deutlich voneinander trennen zu können. Wenn es allein nur über Lautstärke ginge, hätte man in der Engführung gegen Ende der Fuge ein unerwünschtes Forte!)

    Man darf aber die zeitliche Verschiebung der Transienten nicht zu sehr übertreiben, sonst bricht die Struktur der Komposition zusammen!

    Weniger ist mehr ist hier auch wieder das Motto.

    Das vom Autor bereits erwähnte Arpeggio in der Gitarre wäre zum Beispiel einer dieser kompositorischen Massnahmen, um eben gerade im Anschlag dem anderen Instrument zusätzlich Raum und Trennung zu geben, gerade wenn beide Instrumente das Gleiche spielen.

Sag uns deine Meinung!

anzeige

EMPFEHLUNGEN