Meine Sprecherkabine ist mein Kleiderschrank, den ich gerade erst mit neuem Akustikstoff tapeziert habe. Zwar bekomme ich so Raumhall sehr gut in den Griff, jedoch ist so ein Schrank deutlich kleiner als eine richtige Sprecherkabine. Was zur Folge hat, dass sich trotz oder gerade wegen der Dämmung Störfrequenzen einstellen. So wirkt die Aufnahme alles andere ausgewogen. In früheren Versuchen hatte ich mit dem Voxengo SPAN-Analyser gearbeitet, indem ich ihn in den Masterbus gelegt hatte. Zwar ergaben sich so Anhaltspunkte, woher das Dröhnen stammte, aber es war mehr Versuch und Irrtum, nun im EQ die jeweiligen Frequenzen zu reduzieren. Die Anzeige der Frequenzkurve, wie in Voxengo SPAN, liefert zwar einige Anhaltspunkte, aber auch so stochert man eher im Nebel. Dabei hat Adobe Audition ein deutlich besseres Tool an Bord, um solche Frequenzen einzukreisen. Nämlich die Spektralanzeige, die man im Spureditor einblenden kann.

Dazu aktiviert man im Spureditor in der oberen Leiste die Spektralanzeige. Dann splittet sich der Waveeditor, ein zweites Fenster zeigt nun das Spektrum des Signals an. Ein detailliertere Anleitung in Englisch gibt es bei Adobe noch einmal in einem Video.

Mit diesem Tool kann man nicht nur die Qualität eines Audiosignals bewerten, sondern auch Abweichungen im Frequenzverlauf herausfinden. So haben FLAC- und MP3-Dateien ganz spezifische Frequenzobergrenzen. In meinem Fall geht es aber darum, störende Frequenzbereiche zu identifizieren. Allerding ist die Spektralanalyse kein Werkzeug, das man einschaltet und bekommt gleich die Resultate präsentiert. Ein wenig Aufmerksamkeit und Einarbeitung ist notwendig.

Hier nun das, was die Spektralanalyse in Bezug auf meine Sprachaufnahme zeigt. Dabei wird auf der linken Achse die Frequenz festgelegt, die man auch mit dem Mausrad verändern kann, hinein zoomen und die Leiste verschieben. Schaut man nun etwas genauer hin, zeigen sich schnell die Frequenzfehler.

Das Dröhnen stammt aus Resonanzen im Schrank, die sich gerade unterhalb von 600 Hz sehr stark ausprägen. Das ist schon einmal ein Bereich, der im EQ deutlich abgesenkt werden sollte. Damit verschwindet zwar das Dröhnen, doch das Ergebnis klingt immer noch ziemlich “kistig”. Die generelle Regel für den Bereich, der eine Überbetonung der Mitten bewirkt, ist um 500 Hz. In meinem Falle stimmt das aber nicht. Der obere Rahmen markiert, eben in Gelb im der Spektralanzeige, eine Überhöhung der Frequenzen bei ca. 1,5 kHz. Also dieser Bereich sollte ebenfalls leicht abgesenkt werden. Doch die Anzeige beweist noch mehr. Um 3 kHz und 5 kHz ist das Spektrum etwas dunkler, also findet dort eine Auslöschung statt, die ebenfalls leicht (unter 1 dB) bereinigt werden sollte.

Zoome ich in den Frequenzbereich um 1,5 kHz hinein, wird die Überbetonung noch deutlicher sichtbar. Einfach dadurch, dass dieser Frequenzbereich etwas heller ist als darüber und darunter. Gelb steht für einen  hohen Pegel, Rot für einen mittleren und blau für niedrige Pegel.

Die Dröhnfrequenzen können noch etwas genauer identifiziert werden, indem man noch näher in den Bereich hinein zoomed. Die störenden Frequenzen sind nun deutlich unterhalb 200 Hz zu sehen. Es sind jedoch nicht nur Überhöhungen zu erkennen, sondern auch Auslöschungen, die sich ebenfalls aus stehenden Wellen in meinem Schrank ergeben. Bei großen Sprecherkabinen tritt dieser Effekt so nicht auf.

Noch etwas deutlicher wird die Anzeige, wenn man eine zweite Form der Spektralanalyse nutzt, die für andere Zwecke gedacht ist, trotzdem in der Analyse hilfreich. Diese aktiviert man mit dem Icon rechts neben der ersten Spektralanalyse. Hier erscheint auf der rechten Seite keine reine Frequenzleiste, sondern ein Maßstab mit musikalischen Notenbereichen. Diese Auflösung ist feiner.

Hier nun sind die Dröhnfrequenzen noch klarer zu erkennen. Sie liegen bei 100 Hz. Da aber der Bassbereich in der Aufnahme insgesamt überhöht ist, lösche ich mit dem EQ auch alle weiteren tiefen Frequenzen aus. Ebenso die leichte Überhöhung zwischen 1 und 2 kHZ. Die Auslöschungen bei A5 und C6 werden noch deutlicher. Die könnte man im EQ noch bearbeiten, sie verändern aber den Gesamtklang eher wenig. Danach wirkt die Aufnahme deutlich ausgewogener, weniger basslastig und auch der boxige Klang wird vermindert. Das ganze Experiment zeigt auch, dass pauschale Angaben wie “kistiger Klang ist um 500 Hz” oder “1 kHz ergibt bessere Sprachverständlichkeit” nicht immer gelten. Sondern es muss die spezifische Aufnahmesituation berücksichtigt werden.

Seit mindestens 15 Jahren höre ich Podcasts, von 2013 bis 2017 schon deshalb, weil ich am Wochenende zwischen Paderborn und Celle gependelt bin. Fahrzeit pro Wochenende mindestens drei Stunden. Damals nutzte ich Winamp als Podcatcher, kopierte die Podcasts auf einen USB-Stick und hörte die Beiträge dann im Auto. Seit 2021 bin ich zwar im Ruhestand, höre nicht mehr ganz so viele Podcasts, nutzte immer noch Winamp, musste dann aber die Podcasts per FTP auf mein Tablet kopieren. Um sie dann über Mittag zu hören. Winamp hat leider mit den letzten Updates gerade bei Podcasts immer mehr Macken, vergisst die Abos oder lädt neue Beiträge nicht herunter. Der Nachfolger WACUP ist eher noch mieser, was Podcatching betrifft. Es musste eine andere Lösung her. Ohne viel Kopieren und manuelle Arbeit.

Zwischenschritt PLEX

Für eigene Musik auf Alexa hatte ich mir schon einen PLEX-Server installiert, auf dem ich nun auch meine Podcasts unterbringen wollte. Leider macht PLEX die Lizensierung immer schwieriger und ist inzwischen kostenpflichtig, weshalb ich den PLEX-Server irgendwann in die Tonne trat. Seitdem schicke ich in der Küche die Musik zum Kochen und Backen per Bluetooth vom Smartphone an Alexa. Winamp Mist, PLEX nicht mehr brauchbar.

Als erste Maßnahme musste ein neuer Podcatcher her. Nachdem ich mehrere kostenlose Alternativen ausprobiert hatte, stieß ich auf gPodder, ebenso Open Source.

gPodder

gPodder ist tatsächlich eine stabile und universale Podcatcher-Anwendung. RSS-Feeds können beliebig eingebunden werden, gPodder sortiert verschiedenen Feeds nicht nur in unterschiedliche Verzeichnisse, sondern sorgt auch noch für passende Tags für ARTIST, ALBUM oder TITLE. Leider ist die Konfiguration von gPodder etwas kryptisch, so muss man die Windows-Umgebungsvariablen GPODDER_DOWNLOAD_DIR und GPODDER_HOME entsprechend setzen, um die Anwendung-Daten der Anwendung und die heruntergeladenen Podcasts in eigene Verzeichnis zu legen. In meinem Fall liegen die Daten wie Datenbank und Cache in der IONOS-Cloud, die Podcasts selbst in einem eigenen Verzeichnis. Das ist in der Dokumentation beschrieben, muss man aber finden. Danach hatte ich einen zuverlässigen Podcatcher, der meine Podcasts dort hin lädt, wo ich sie haben möchte. Vorausgesetzt ich starte gPodder am PC gelegentlich, könnte man auch in den Task-Manager von Windows packen und die Podcasts bei jedem Systemstart  holen. Nun musste noch ein Weg gefunden werden, mit dem ich diese Podcasts vom Tablet aus erreichen kann.

NextCloud

NextCloud ist eine Cloud-Anwendung für Daten, Mail und weitere Dienste, wie gPodder freie Software. Um sie zu installieren, muss man einen Hosting-Provider haben, wo die Server-Anwendung in einem Webspace installiert wird, sowie eine SQL-Datenbank. Die Installation ist sehr einfach, man lädt lediglich eine einzelne PHP-Anwendung herunter, packt sie in den Webspace und ruft das Script auf. Danach installiert sich NextCloud komplett selbst, lediglich Adresse und Zugangsdaten der Datenbank müssen angegeben werden. Dort können nun die Podcasts als Dateien abgelegt werden. Mit der NextCloud-App MUSIC sind nur MP3-Dateien sichtbar, die Tracks kann man nach Alben, Künstlern oder Titeln sortieren. Nun müssen nur noch die Podcasts vom PC in den Datenbereich der NextCloud kommen. Ohne FTP.

Dazu wird einfach die Windows-App von NextCloud auf dem PC installiert, die die Dateien vom PC in die Cloud synchronisiert. Auf dem PC wird das Verzeichnis, in das gPodder die Podcasts herunter lädt, zum lokalen Dateibereich für die NextCloud. Alle neuen Podcasts werden nun in die Cloud hoch synchronisiert, gPodder merkt sogar, wenn Dateien in der Cloud gelöscht wurden und entfernt sie aus seinem eigenen Dateibereich.

Im Grunde ganz einfach

Alle Konfigurationsschritte habe ich natürlich nicht hier dokumentiert. Man muss auch NextCloud nicht so im Design anpassen wie bei mir. Der einzige notwendige Schritt ist der, dass man die zusätzliche App MUSIC installieren muss. Die findet man in den Einstellungen zu seinem Account, Apps und Multimedia.

So habe ich für meine Podcasts eine bequeme Infratstruktur, die mit nur einer manuellen Aktion auskommt, nämlich gelegentlich gPodder auf dem PC zu starten. Das mache ich aber schon deshalb, um für mich nicht interessante Podcasts gleich wieder zu löschen. Auf dem Tablet habe ich im Browser zwei Fenster, einmal mit der App FILES und eins mit MUSIC. Habe ich einen Podcast gehört, kann ich ihn vom Tablet gleich in der Cloud löschen. gPodder merkt das sogar und markiert für sich die Folge als gelöscht.

 

 

 

Nur wenige Leute aus dem Amateur- oder semiprofessionellen Bereich haben die Möglichkeit, in akustisch idealen Räumen ihre Aufnahmen einzusprechen. Ich persönlich hatte mal so einen Raum, im Keller eines Einfamilienhauses, mit vielen Regalen voll Kram, die mit Vorhängen wohnlicher wurden, und einer niedrigen Decke. Nach meinem Rücksturz nach Ostwestfalen war der einzige Raum, der akustisch halbwegs akzeptabel war, mein Schlafzimmer. Zugegeben ist meine Wohnung für einen Single luxuriös groß und weitläufig. So ist das Landleben. Doch war auch das Schlafzimmer mit Bett und Teppich nicht wirklich gut, weil hallig. So kehrte ich zur Sprecherkabine für Arme zurück, meinem Kleiderschrank. Das Thema Hall hatte ich nun im Griff, handelte mir aber neue Probleme ein. Es dröhnte und klang, wegen Überdämpfung, muffig. Alles Dinge, die man mit entsprechenden EQ-Einstellungen in den Griff bekommen kann. Aber was passierte in welchen Bereichen im Frequenzverlauf? Wo dröhnte es?


Und weiter …

Seit gut zehn Jahren produziere ich Beiträge für Berliner Bürgerradios, Schwerpunkte Musik und Zeitgeschichte. Da ich aber Stunden am Tag auch Radio höre, überwiegend WDR 5 und Deutschlandfunk, hatte ich immer den Sound in den Ohren, wie die Stimmen klingen sollten. Trotz vieler YouTube-Videos zu diesem Thema, mit vielen Anleitungen im Web und in Büchern, hat es seine Zeit gedauert, bis ich “meinen” Klang bekommen habe. Ein solcher Stimmklang ist immer etwas Subjektives, und wie ich als Teamleiter der Sprecher in einer ehrenamtlichen Institution weiß, hat da jeder so seine ganz eigene Vorstellung. Mein Richtwert waren aber immer die Höreindrücke, wie ich sie im professionellen Radio, und auch Podcast, eben mitgenommen habe. Diese Lernkurve, die sich über Jahre hingezogen hat, möchte ich deshalb noch einmal zusammen fassen. Auch deshalb, weil die Vorschläge und Anleitungen in Medien für mich eben nicht funktioniert haben. Fangen wir ganz vorne an.


Und weiter …

Eine Zeit lang habe ich gerne mit dem Rode NT1-A aufgenommen. Die eine Stärke des Kondensator-Großmembraners ist das fast nicht hörbare Rauschen. Die andere ist für die Aufnahme von Gesang die Fähigkeit, auch kleinste Nuancen und Feinheiten aufzulösen, für eine Sängerin wie Adele unverzichtbar, für einen Sprecher von Texten jedoch eher nervig. Denn diese Feinsinnigkeit des NT1-A bedeutet, dass auch kleinste Unsauberkeiten wie Lippengeräusche, Schmatzen, Zungengeräusche oder nur Geräusche von der Maus in der Aufnahme landen. Das nervte mich. So holte ich wieder mein Rode Procaster aus dem Koffer, stöpselte den geliebten Triton FetHead davor und erfreute mich des warmen, angenehmen Klanges dieses mächtigen Großmembraners der dynamischen Bauweise. Keine Schmatzer mehr, keine Lippengeräusche, ein sonorer Klang, der trotzdem nicht auf Feinheiten in der Stimme und Artikulation verzichtet. Aber oh weh, da war es wieder. Wenn man sich keinen Channel Strip (also einen Mikrofon-Vorverstärker) der 2000 Euro-Klasse leisten kann oder will, ist es so sicher wie das Amen in der Kirche: das Rauschen vom Mikrofon selbst und vom Vorverstärker. Denn aufgrund physikalischer Gegebenheiten rauscht gerade ein dynamisches Mikro eben. Der Kondensator hat da prinzipbedingt die Nase vorn. Also entweder es rauschen lassen, oder … sich etwas detaillierter mit den Rauschreduzierungen in Adobe Audition auseinander setzen. Gesagt, getan. Die Zeit kostet das Erforschen, wie es geht. Hat man das getan, ist das weitgehende Ausschalten des Rauschens nur eine Sache weniger Clicks.


Und weiter …

Eine wiederkehrende Situation sind Sendungen mit Musikstücken aus verschiedenen Quellen und aus verschiedenen Zeiten. Während das alte Supertramp-Album relativ leise ist, haut ein Metallica-Stück danach die Membranen aus den Lautsprechern. Mein erster Ansatz war, jeweils ein Stück über das Kontextmenü unter der rechten Maustaste auf eine bestimmte Loudness zu bringen. Das dann halt für jedes Stück. Neben der Zeit, die das Verfahren benötigte, war das auch sonst kontraproduktiv. Beim finalen Abhören der gesamten Sendung waren dann doch wieder Unterschiede in der Lautheit zu hören, weil zwar die absolute Lautheit jedes einzelnen Stücks gesetzt war, aber nicht in Relation aller beteiligten Stücke. Dazu hat Audition nämlich ein spezielles anderes Tool an Bord.


Und weiter …

Was mich immer gestört hat, war, dass ich in der Küche über den Amazon Echo nicht meine eigene Musiksammlung hören konnte. Ich wollte eben keine Playlisten von Spotify, und auch Amazon Music war mir zu teuer und zu einseitig. Eine erste Idee, Musik von einem USB-Stick an der Fritz!-Box zu hören, scheiterte per PnP ebenfalls. So geriet das Projekt wieder in Vergessenheit. Bis mir ein älterer Raspberry in die Hände fiel.


Und weiter …

Um andere für uns zu gewinnen, sollten wir kompetent, selbstbewusst und leidenschaftlich wirken. Es kommt eben nicht nur darauf an, was wir sagen, sondern auch wie wir es tun. Aber woran liegt es eigentlich, dass uns manche Stimmen in den Bann ziehen – ist es eine Frage der Routine oder angeborenes Talent? In der Podcast-Serie »Smarter leben« gab es einen Beitrag mit dem Phonetiker Oliver Niebur, hier der komplette Artikel, der erklärt, was eine Stimme glaubwürdig und charismatisch macht. Hörenswert für alle, die mit Sprechen zu tun haben.

Smarter LebenDie charismatische Stimme

Das Thema treibt mich mittlerweile in den Wahnsinn. Wie mische ich eine moderierte Sendung so ab, dass Sprache und Musik subjektiv gleich laut klingen, so dass die Sprache verständlich bleibt, man aber bei der nächsten Musik nicht gleich wieder einen Sprint ans Radio einlegen muss? Bisher bin ich das Thema weitgehend experimentell angegangen, war aber mit den Ergebnissen nicht immer wirklich zufrieden. Für mich war die Reproduzierbarkeit wichtig, damit ich nicht bei jedem neuen Beitrag wieder ans Ausprobieren komme. Die Antwort war nahe liegend, aber nicht bewusst. Ich hatte die dazu sinnvollen Tools in Adobe Audition nämlich schon lange in Gebrauch, war mir aber der Tragweite ihrer Wirkung nicht wirklich bewusst.


Und weiter ...

Beim Produzieren eines Beitrages fiel mir vor einiger Zeit auf, dass der Mix in Audition noch ganz ok klang, der exportierte Mix aber deutlich schlechter. Eher grottig, die Stimme klang verwaschen und undefiniert. Verglichen mit dem Original. Am Mikro konnte es nicht liegen, der Export lief mit 192 kBit/s. Sollte also alles im grünen Bereich sein, war es aber nicht.

Wenn man im Nachhinein darüber nachdenkt, wird klar, was da passierte. Eine Fußangel bei der Verwendung des MP3-Formates, die ich intuitiv musste, aber nicht bedachte.


Und weiter ...