Posts

Bisher kannte ich die Möglichkeit, die Lautheit (nicht den Pegel) einer Spur festzulegen, nur aus Adobe Audition. Doch hier hat Audacity nachgezogen. Seit kurzer Zeit hat Audacity unter den Effekten die Funktion zum Anpassen der Lautheit. Die Anwendung ist relativ einfach. Man wählt das Sample, das angepasst werden soll, einfach aus, ruft die Anpassung auf und gibt vor, welche Lautheit die Anpassung einstellen soll. Wie alle anderen Effekte in Audacity – im Gegensatz zu Audition – kann es Effekte nur als Bearbeitungsfunktion, nicht als dynamische Funktion handhaben. Bei der Lautheit unterscheiden sich da Audacity und Audition nicht.

Allerdings muss man darauf achten, dass als Normalisierung die wahrgenommene Lautheit gewählt wird, was die Grundeinstellung ist. Zwar erlaubt Audacity nicht den Bezug zu den IBU-Rundfunknormen wie Audition, für den Hausgebrauch reicht es schon. Empfehlen würde ich für Podcasts die gute alte -16 LUFS-Vorgabe von Apple, die -14 LUFS bei Amazon halte ich für zu laut. Wenn man regelmäßig Jingles verwendet, sollte man diese einmal so normieren und danach erneut abspeichern. Verkürzt den Workflow gerade bei großen Sample erheblich.

Nicht zum automatischen Anpassen, aber zum Ausmessen der Lautheit bietet sich das Youlead Loudness Meter an.

Ein Kritikpunkt an Audacity, im Vergleich zu anderen Programmen wie Adobe Audition oder Steinberg Cubase, ist der, dass die mitgelieferten Effekte leider nur statische sind. Man kann einen Effekt an einer Spur nur nutzen, wenn man das Sample auswählt und den Effekt anwendet. War es nicht der gewünschte Effektpegel oder die angezielte Wirkung, muss man mit STRG-Z zurück, andere Parameter für den Effekt einstellen und wieder anwenden. Diese Anwendung der Effekte liegt an der Art, wie Audacity entwickelt wurde, nämlich für gleich mehrere Betriebssysteme. Linux, Windows und weitere. Und die handhaben dynamische Effekte jeweils sehr unterschiedlich. So genannte dynamische Effekte, bei denen man im laufenden Betrieb Effektparameter ändern kann und gleichzeitig mithören, muss man nachträglich einbringen. Dieses geht mit den VST-Plugins, Software-Module, deren Schnittstelle die Firma Steinberg schon vor langer Zeit definiert hat. Ein weiterer Vorteil dieser Plugins ist der, dass man zum Beispiel Compressoren oder Equalizer nach dem Anwendungsziel aussucht. Weil ein Compressor für ein Schlagzeug anders verwendet wird als für Sprache oder Gesang. Seltsamerweise haben sich unzählige Hersteller an diese Schnittstelle für Plugins gehalten, weshalb sie heute ein Quasistandard ist. Doch ist die Nutzung der VST-Plugins in Audacity nicht ganz trivial. In Cubase oder Audition geht das einfacher. Aber es ist auch keine Raketenwissenschaft.


Und weiter …

Es war mir schon mal aufgefallen, ich hatte es jedoch ignoriert: Aufnahmen von Moderationen waren irgendwie schief, die Signale oberhalb der Nulllinie waren deutlich schwächer als die unterhalb. Ich schob das auf die Elektronik und ließ es gut sein, denn akustisch war ja alles in Ordnung. Bis ich eine neue Runde einlegte, den eingesprochenen Text für die Aussendung möglichst gut einzupegeln und Spitzen durch Schmatzer, Klicker oder Atmer zu nivellieren. Das geht ganz gut mit dem Hard Limiter in Adobe Audition, werde ich noch einmal separat beschreiben. Der Limiter brachte aber nur teilweise Besserung, denn ihm war es ja egal, ob die Signale positiv oder negativ waren. Das Ergebnis war ein schön nivelliertes Signal im positiven Bereich, aber der negative sah aus wie mit der Schere abrasiert. Was tun? Und warum ist das Signal so schräg? Wenn man es weiß, ist es plausibel.


Und weiter …

Vor einiger Zeit habe ich ein paar Demo-Videos für das Sicher-Stark-Team produziert (wo ich Leiter der SprechInnen-Gruppe bin). Vielleicht noch anders nützlich.