We may request cookies to be set on your device. We use cookies to let us know when you visit our websites, how you interact with us, to enrich your user experience, and to customize your relationship with our website.
Click on the different category headings to find out more. You can also change some of your preferences. Note that blocking some types of cookies may impact your experience on our websites and the services we are able to offer.
These cookies are strictly necessary to provide you with services available through our website and to use some of its features.
Because these cookies are strictly necessary to deliver the website, refusing them will have impact how our site functions. You always can block or delete cookies by changing your browser settings and force blocking all cookies on this website. But this will always prompt you to accept/refuse cookies when revisiting our site.
We fully respect if you want to refuse cookies but to avoid asking you again and again kindly allow us to store a cookie for that. You are free to opt out any time or opt in for other cookies to get a better experience. If you refuse cookies we will remove all set cookies in our domain.
We provide you with a list of stored cookies on your computer in our domain so you can check what we stored. Due to security reasons we are not able to show or modify cookies from other domains. You can check these in your browser security settings.
We also use different external services like Google Webfonts, Google Maps, and external Video providers. Since these providers may collect personal data like your IP address we allow you to block them here. Please be aware that this might heavily reduce the functionality and appearance of our site. Changes will take effect once you reload the page.
Google Webfont Settings:
Google Map Settings:
Google reCaptcha Settings:
Vimeo and Youtube video embeds:
You can read about our cookies and privacy settings in detail on our Privacy Policy Page.
Audacity und VST-Plugins
Ein Kritikpunkt an Audacity, im Vergleich zu anderen Programmen wie Adobe Audition oder Steinberg Cubase, ist der, dass die mitgelieferten Effekte leider nur statische sind. Man kann einen Effekt an einer Spur nur nutzen, wenn man das Sample auswählt und den Effekt anwendet. War es nicht der gewünschte Effektpegel oder die angezielte Wirkung, muss man mit STRG-Z zurück, andere Parameter für den Effekt einstellen und wieder anwenden. Diese Anwendung der Effekte liegt an der Art, wie Audacity entwickelt wurde, nämlich für gleich mehrere Betriebssysteme. Linux, Windows und weitere. Und die handhaben dynamische Effekte jeweils sehr unterschiedlich. So genannte dynamische Effekte, bei denen man im laufenden Betrieb Effektparameter ändern kann und gleichzeitig mithören, muss man nachträglich einbringen. Dieses geht mit den VST-Plugins, Software-Module, deren Schnittstelle die Firma Steinberg schon vor langer Zeit definiert hat. Ein weiterer Vorteil dieser Plugins ist der, dass man zum Beispiel Compressoren oder Equalizer nach dem Anwendungsziel aussucht. Weil ein Compressor für ein Schlagzeug anders verwendet wird als für Sprache oder Gesang. Seltsamerweise haben sich unzählige Hersteller an diese Schnittstelle für Plugins gehalten, weshalb sie heute ein Quasistandard ist. Doch ist die Nutzung der VST-Plugins in Audacity nicht ganz trivial. In Cubase oder Audition geht das einfacher. Aber es ist auch keine Raketenwissenschaft.
Und weiter …
Alle meine Mikrofone
Winterabende bieten sich gerne für Basteleien an. Deshalb habe ich noch einmal einige meiner Mikrofone versammelt, um ihre unterschiedlichen Sounds und Raumqualitäten zu vergleichen. Aufgenommen habe ich natürlich die Rohdaten, danach wurden sie mit iZotope Nektar 4 Elements in Adobe Audition noch mit künstlicher Intelligenz bearbeitet. Bei den dynamischen Mikros kam vor dem Interface noch ein FEThead zum Einsatz, um 20 dB mehr Ausgangspannung zu holen.
Und weiter …
Schreiben fürs Sprechen – Die Dritte
Vorbereitung ist alles: Text-Layout
In der Tat ist es bei längeren und komplexen Themen und Texten sinnvoll, den Beitrag vorzuschreiben. Sinnvoll ist es nicht, ihn so zu schreiben wie sonstigen Text, also schön und optisch ansprechend, und mit optimalem Schrifteindruck. Denn das Ziel bei diesem Text ist es, den Text möglichst fehlerfrei und fließend lesen zu können. Der Text soll das Sprechen unterstützen. Dafür gibt es ein paar Stellschrauben, die werden in Büchern auch genannt. An einigen Stellen bin ich erst durch einen einzelnen amerikanischen Kollegen zurecht gekommen. Das Ganze in Listenform.
Bei einem Layout wie im Screenshot macht eine Seite ca. anderthalb Minuten gesprochenen Text.
Kleine und größere Helferlein
Ein Tisch-Bücherständer leistet gute Dienste beim Einsprechen im Sitzen. Mit etwas Geschick bekommt man sogar drei Seiten platziert. Mit einem solchen Ständer, ein Notenständer oder ein Klemmbrett hilft auch, hat man kein Papier in der Hand und raschelt nicht herum. Jedenfalls bleibt in meinen Händen kein Papier still. YMMV. Blattwechsel schneidet man später heraus oder nimmt in Etappen auf.
Generell bin ich vom Einsprechen im Sitzen abgegangen. Obwohl es etwas mystisch erscheint, es macht einen großen Unterschied, ob man beim Sprechen sitzt oder steht. Die Atmung verändert sich, im Stehen hat man die Hände frei, kann etwas agieren, die Sprache ist freier. Nimmt man vorwiegend oder nur im eigenen Wohnraum ein, ist ein Orchesterpult optimal. Auf diesem steht das Manuskript, an den oberen Rand kommt eine Klemme für das Mikro. An dieser Klemme findet dann noch gleich der Pop-Schutz Halt. Beide Klemmen stammen von K&M, die große Version hat noch den Vorteil, dass sie fast beliebig positioniert werden kann. Erhältlich beim Musikhändler des Vertrauens oder bei Thomann. Hier die einfache und hier die große Klemme.
Schreiben fürs Sprechen – Die Zweite
Beim Hörer ankommen
Einer der größten Fehler, die ich am Anfang gemacht habe: mit der Tür ins Haus zu fallen. Direkt in medias res, sofort die volle Breitseite. Erst Stefan Wachtel hat mir mit seinen Büchern bessere Methoden an die Hand gegeben. Neben der Wortwahl, dem Sprachstil und den Formulierungen spielt auch die Struktur von Beiträgen eine wesentliche Rolle. Was mir am Anfang nicht wirklich bewusst war.
Einleiten, Abholen, Wecken
Stellen wir uns eine reale Situation vor. Der Hörer und die Hörerin (ich verwende am jetzt den Begriff Hörer für beide Geschlechter) sitzen beim Abendessen, spülen das Geschirr oder machen gerade sonst etwas. Nun kommt unser Beitrag im Radio. Es wäre zuviel verlangt, dass sofort alle Aufmerksamkeit uns gehört, unserem Beitrag, unserer “Message”. Wir müssen die beiden erst einmal abholen, müssen sie gedanklich an den Lautsprecher holen, Interesse wecken. Die Nachrichten haben es da besser, sie wollen gehört werden, ihnen gilt – in der Regel – eh das volle Interesse. Uns nicht.
Daher Wachtels Regel Nummer Eins: situieren, situieren, situieren. Wir müssen dem Hörer klar machen, dass hier etwas für ihn Interessantes kommt. Und sei es nur etwas Unterhaltendes. Dazu gehört das Situieren, das Einleiten in den Beitrag. Das kann eine Anekdote sein, eine Geschichte oder etwas Verwandtes aus dem Alltag. Der Kniff dabei ist, möglichst viele Menschen anzusprechen, Spezialisierungen sind nicht hilfreich. Mit dieser Einleitung fangen wir den Hörer ein.
Beispiel: das Historische Ereignis in der Zeitzone des Ohrfunks.
Sagen Sie mal, haben Sie eigentlich Punkte in Flensburg? (Pause) Und wie viele? (Pause) Na, das geht ja noch. Punkte in Flensburg, den Begriff kennt wohl jeder Autofahrer. Heute nämlich, am so-und-so-vielten wurde im Kraftfahrtbundesamt in Flensburg das Allgemeine Verkehrregister eingerichtet …Persönlich werden, persönlich bleiben
Von Sendungen abgesehen, in denen es um Fakten geht, interessiert den Hörer nicht, was er eh schon weiß. Wenn ich über die Beatles spreche, brauche ich dem Hörer nicht zu erzählen, dass sie aus Liverpool kamen. Oder dass John Lennon der Bandgründer war, weil das mein Hörer wohl eh weiß. Eher sollte ich die Beatles aus meiner Sicht schildern, meine Erinnerungen, meine Positionen. Natürlich soll den Hörer das Thema interessieren, aber es sucht neue Aspekte, neue Sichten. Und die kann ich nur aus meiner eigenen Sicht angehen. Es sei denn, es sind Informationen, die wahrscheinlich eher unbekannt sind. Aber der wichtige Punkt ist, dass es meine Sicht, meine Perspektive ist. Und nicht die, die er auch in Wikipedia nachlesen kann.
Die Grenzen des Radios
Im Vergleich zu Fernsehen und Internet unterliegt das Radio einer großen Beschränkung. Wir können nur Töne übermitteln. Was bedeutet, dass wir Bilder nur in den Köpfen unserer Hörer realisieren können, indem wir sie rufen. Was man ausgiebig tun sollte, denn nur Bilder können Stimmungen und Situationen transportieren. Das kann sein, dass wir in der Anmoderation das Wetter draußen, die Atmosphäre im Studio oder die Fahrt zum Sender schildert. Oder dass man eben betont bildhafte Sprache einsetzt. Nicht allein abstrakte Begriffe und Fakten, sondern Bilder. Bilder erhöhen nicht nur die Verständlichkeit und vermitteln Atmosphären, sie machen Texte leichter fassbar. Statt 50%: jeder Zweite. Statt 120.000 Menschen: eine ganze Kleinstadt wie Paderborn. Statt 400 Milliarden Euro: fast soviel wie der Bundeshaushalt.
Struktur wahren
Jeder Beitrag braucht eine Struktur, der der Hörer folgen kann. Der Begriff des narrativen Stils trifft diese Forderung sehr gut, es geht nicht um das Aufzählen von Fakten, Daten und Ereignissen, die Elemente müssen an einem Zeit- oder Themenstrahl ausgerichtet sein. Nichts ist schlimmer, als zwischen den Punkten der Geschichte hin und her zu springen. Der Hörer wird dem nur schwerlich folgen können. Das kann man am besten in einer Grafik darstellen, zum Beispiel anhand eines Beitrages über den Finanzminister, die Steuern und den Bürgern.
Der Themenfluss des Beitrages sollte so linear wie möglich sein, damit der Hörer dem Verlauf folgen kann. Der linke Verlauf tut das eher weniger, er springt zwischen den Fokuspunkten hin und her, was den Hörer verwirrt. Der rechte Verlauf ist besser in der Lage, einen logischen und verfolgbaren Verlauf zu erzeugen. Die Geschichte mag dem Redakteur klipp und klar sein, der Hörer hat diesen Hintergrund nicht, er hat sich nicht mit den Inhalten so beschäftigt.
Narrativ bedeutet auch, dass der Beitrag in sich schlüssig ist, in den Fakten wie in den zeitlichen Zusammenhängen. Ständig zwischen Vergangenheit, Gegenwart und Zukunft zu wechseln, mag interessant aussehen, verständlich ist es nicht.
Ein weiterer Stolperstein ist der, dass man nicht alles Vorwissen beim Hörer voraus setzen kann. Sei es Politik, Wissenschaft oder Fremdwörter und Fachbegriffe. Häufungen von fremden Wörtern veranlassen den Hörer zum Abschalten. Manchmal reicht schon ein einziger Begriff.
Struktur des Beitrages ist ebenso wichtig wie Sprache und Formulierungen. Optimal wird es, wenn man das Thema in eine Geschichte verpacken kann, die mit den berühmten “anregenden Zusätzen” versehen ist. Das, was den Beitrag interessant und für den Hörer lebensnah macht.
Den Hörer nicht allein zurück lassen
Genau so wichtig wie eine Situierung ist der Abschluss. Die ideale Form ist, im Abspann wieder den Faden des Anfangs aufzunehmen, sei es mit einem Fazit, mit einer Erkenntnis oder einem Witz. Die meiste Aufmerksamkeit beim Beitrag gilt dem Ende, dem Beginn und erst danach dem Inneren der Geschichte. Mit der Situierung hole ich den Hörer hinein, mit dem Abspann lasse ich ihn wieder los und teile ihm das auch mit. Es ist nicht günstig, wie bei den Hard News den harten Strich zu ziehen, Ende der Nachricht, die nächste bitte.
Stattdessen den Beitrag abschließen, ihn abrunden und dabei etwas zurück lassen, an das sich der Hörer vielleicht als Erstes erinnern wird, wenn er sich den Beitrag wieder ins Gedächtnis ruft. Situierung und Abschluss klammern die ganze Geschichte. So wie “Es war einmal …” und “… lebten sie glücklich für den Rest ihres Lebens.” ein Märchen klammert. Diese Struktur der Märchen ist nicht zufällig, sie hilft dem Hörer in der Orientierung und er weiß, dass der Beitrag nun zu Ende ist.
Im Grunde sind es wenige und einfache Regeln und Leitlinien, die einen Beitrag verträglich und griffig machen. Wer in das Thema Struktur und Ablauf im Radio noch tiefer einsteigen möchte, kann ich die Bücher von Stefan Wachtel nur wärmstens ans Herz legen.
Schreiben fürs Sprechen – Die Erste
So fing es an
Als ich mit dem Radiomachen anfing, war mir das Konzept für die ersten Beiträge weitgehend klar. Die Technik war auch kein Thema. Fehlten noch die Texte. Ich ging den sicheren Weg, wie ich heute weiß, wie fast jeder. Schrieb die Texte vor, las sie ab, mischte Text, Musik, Opener und Jingles, fertig war der erste Beitrag. Es folgten weitere, heute produziere ich Beiträge für den Ohrfunk, ein gutes Jahr Lernkurve liegt hinter mir. So viel zur Vorgeschichte. Wenn ich mir heute ältere Beiträge von mir anhöre, ist das eine der effektivsten Lernkurven überhaupt. Wenn man vom allgemeinen Journalismus ins Radio gerät, schreibt man so, wie man eine Nachricht oder einen Bericht schreibt. Hat man Glück, sind Rezensionen noch im Gedächtnis und es wird etwas lockerer, farbiger, freier. Aber meistens hat man Pech. Und so klingt der Text dann auch, eben mehr vorgelesen als moderiert, steif, wenig unterhaltend. Das ist aber gerade das Zeil einer Moderation, zu unterhalten, beim Hörer Interesse zu wecken.
Von diesem Sprech- und damit Schreibstil weg zu kommen, hat mich gut ein Jahr gekostet. Und ich muss zugeben, dass ich ohne die hilfreichen Werke auf der Bücherliste im Abschnitt “Radio/Podcast” noch länger herum gedoktert hätte. Mittlerweile steigt meine Zufriedenheit und es geht lockerer. Zwar bin ich von Tommi Bongartz und Manni Breuckmann noch Äonen entfernt, hier dann doch ein paar Anmerkungen aus meiner Lernkurve. Den Inhalt der vielen Bücher kann ich nicht einmal streifen, aber es sind die grundlegenden Erkenntnisse, die mir das Leben heute leichter machen. Und ich beziehe mich nur auf Moderationen, Features oder Kommentare, nicht auf Hard News.
Schreibsprache und Sprechsprache
Dass vorgeschriebene Texte so leblos und starr klingen, liegt an der ganz anderen Satzbildung und Wortwahl, je nachdem, ob wir sprechen oder schreiben. Beobachtet man bewusst, wie man spricht und vergleicht das mit Geschriebenem, sind die Unterschiede nicht offensichtlich. Doch es gibt sie:
Sprechsprache im Alltag, und Moderationen sind Alltag, ist reduzierter als Schreibsprache. Das, was und wie wir sprechen, würden wir im Normalfall so nicht zu Papier bringen. Sprechsprache ist weniger linear, weniger komplex und entsteht ja erst nach einem unbewussten Vordenken. Schreiben wir dagegen einen Text, so feilen wir schon in der Erstausgabe, noch vor dem Redigieren. Gesprochenes dagegen enthält grundsätzlich mehr Redundanz, überflüssige Wörter, mehr Nebensätze, mehr Füllstoff. Ein weiterer, meistens nicht auffälliger Bestandteil von Sprechsprache, sind Lücken, Ungenauigkeiten und Pausen. Faktor Nummer Drei ist die Sprachmelodie, im Alltag variieren wir die Stimme in viel größeren Bereichen als beim Vorlesen eines Textes. Da geht die Stimme schon mal weit mehr nach oben als beim Lesen. Denn beim Sprechen sind weit mehr Emotionen beteiligt. Aber gerade das ist in der Moderation das Ziel, auch emotional zu wirken.
Vom Sprechen zum Schreiben
Es ist am Anfang ziemlich schwer, von der Schreibsprache wegzukommen und in eine Sprechsprache umzuschalten. Eine größere Hilfe als oft ein Stapel Bücher ist die Fähigkeit, sich selbst für eine Zeit bewusst zu beobachten. Wenn ich spreche, wie sehen meine Sätze aus? Welche Wörter verwende ich oft und wo, in welchem Zusammenhang? Wie “baue” ist Sätze beim Sprechen? Daraus lassen sich einige Regeln ableiten, auf die ich achte, nicht als Korsett, sondern eher als roter Faden.
Am Ende erfordert das Schreiben von Texten fürs Sprechen etwas Übung darin, in Gedanken zu sprechen und genau das aufzuschreiben. Was zuerst ungewohnt ist. Aus Schule und Ausbildung sind wir eingenordet, statisch zu schreiben, haben die Regeln für gute Aufsätze oder Berichte verinnerlicht. Sich den Freiheitsgrad zurück zu gewinnen, zu schreiben wie uns der Schnabel gewachsen ist, ist Arbeit. Und erfordert genau so Übung und Lernkurven wie das Gegenteil, nämlich exaktes und ausgefeiltes Schreiben. Einige Trainer nutzen Hilfen. Eine davon ist, sich jemanden vorzustellen, oder tatsächlich ein Bild vor sich zu hängen, zu dem man spricht. Also, Angie, was ich Dir schon lange mal erzählen wollte …
Sprechen fürs Lesen
Vor schon längerer Zeit hatte ich mich mit dem Thema »Schreiben fürs Sprechen« beschäftigt. Nach reichlichem Quellenstudium, zahllosen Beiträgen im Netz und mit so einigen Büchern. Während man in diesem Fall, dass man seine Texte für einen Beitrag schreibt, die Sache noch weitgehend in der Hand hat, sieht die Sache ganz anders aus, wenn man fremde Texte einsprechen soll. Die sind nämlich in fast allen Fällen eben nicht fürs Sprechen gedacht. Es ist dann nicht die Ausnahme, dass solche Texte kaum ordentlich zu sprechen sind. Weil sie eben als Pressemeldungen oder sonstige Zwecke verfasst wurden. Wie nun an diese Herausforderungen heran gehen? Damit bin ich nun seit einiger Zeit konfrontiert, allmählich schält sich jedoch auch für diese Fälle eine Art Workflow heraus.
Und weiter …
Das Phänomen der unsymmetrischen Mikrofonaufnahme
Es war mir schon mal aufgefallen, ich hatte es jedoch ignoriert: Aufnahmen von Moderationen waren irgendwie schief, die Signale oberhalb der Nulllinie waren deutlich schwächer als die unterhalb. Ich schob das auf die Elektronik und ließ es gut sein, denn akustisch war ja alles in Ordnung. Bis ich eine neue Runde einlegte, den eingesprochenen Text für die Aussendung möglichst gut einzupegeln und Spitzen durch Schmatzer, Klicker oder Atmer zu nivellieren. Das geht ganz gut mit dem Hard Limiter in Adobe Audition, werde ich noch einmal separat beschreiben. Der Limiter brachte aber nur teilweise Besserung, denn ihm war es ja egal, ob die Signale positiv oder negativ waren. Das Ergebnis war ein schön nivelliertes Signal im positiven Bereich, aber der negative sah aus wie mit der Schere abrasiert. Was tun? Und warum ist das Signal so schräg? Wenn man es weiß, ist es plausibel.
Und weiter …
Das Ganze noch mit Adobe Audition
Podcasts mit Oceanaudio und Audacity
Vor einiger Zeit habe ich ein paar Demo-Videos für das Sicher-Stark-Team produziert (wo ich Leiter der SprechInnen-Gruppe bin). Vielleicht noch anders nützlich.
Podcast Stufe Zwei
Der vorherige Teil über Podcasts ging in der Hauptsache auf die technischen Aspekte ein. Und wie so übliche Lernkurven verlaufen, gibt es nach der realen Produktion so einiger Sendungen neue Erfahrungen. Diese bei mir gesammelt aus der Produktion von Podcasts über Musik. Nicht verschweigen sollte ich, dass mein ursprünglicher Berufswunsch einmal Toningenieur war, ich 40 Jahre Elektronik-Erfahrung verbuchen kann und eine Lehre als Rundfunk- und Fernsehtechniker in den goldenen Siebzigern so manche technische Frage erst gar nicht aufkommen lässt.
Noch einmal Technik
The Writer’s Pit
Der aktuelle Setup sieht zur Zeit so aus:
Texte sind komplett vorgeschrieben, das ist Geschmackssache. Wenn man Texte schreiben kann, die wie laufende Sprache klingen, und diese auch möglichst frei und natürlich sprechen kann, ist es die sicherste Lösung. Die Aufnahme der Texte in einem Rutsch oder in getrennten Abschnitten landet auf einem USB-Stick, das Schneiden erfolgt später im Wohnzimmer an einem i5-PC und mit einem 22-Zoll-Schirm geht das doch komfortabler.
Produktion
Die Produktion ist nicht nur das Zusammenfügen der einzelnen Elemente. Ziel soll ja auch sein, die gesamte Aufnahme gut klingen zu lassen. Dazu gehört, dass die Gesamtaufnahme nicht nur mit Studiomonitoren oder im Auto passt, sondern mit möglichst allem, was man als Wiedergabemöglichkeiten hat. Das betrifft das Verhältnis der Lautstärken von Sprache und Musik, oder anderen Elementen, als auch die Frequenzgänge. Gerade am Anfang sollte man seine Produktionen über verschiedene Anlagen probehören, bevorzugt die, die für den Hörer zum Einsatz kommen wie PC-Lautsprecher oder Stereoanlage. Es nervt, wenn man die Stimme kaum versteht, aber die Musik brüllt, oder umgekehrt. Daher die eher aufwändige Bearbeitung bei der Produktion. Dröhnen oder spitze Höhen sind nervige Komponenten, die gezielt bearbeitet werden müssen. Was manche Podcasts so nervig oder langweilig macht, sind nicht immer nur die Inhalte. Unebener Schnitt und schlechter Klang sind noch viel schlimmer.
Wer glaubt, er lädt sich ein paar VSTi-Plugins herunter und macht das alles mal ebenso, liegt falsch und degradiert alle Toningenieure. Ich habe jedenfalls reichlich Stunden gebraucht, zu klanglich und schnitttechnisch akzeptablen Ergebnissen zu kommen.
Schnitt
n-Track7 mit Broadcaster-Plugin
Bei der Aufnahme habe ich einen Zettel zur Hand, auf dem ich mir die Zeiten der aufgenommenen Abschnitte notiere. Geht ein Teil daneben, wird die Zeit durchgestrichen und neu aufgenommen. So braucht man beim Schnitt nicht zu viel zu suchen.
Die Textelemente werden mit Goldwave, oder Steinberg WaveLab, aus der Gesamtaufnahme in einzelne Abschnitte als .wav-Dateien isoliert und auf maximale Aussteuerung gezogen. Bei Goldwave heißt das Maximize volume. Über die Textaufnahmen läuft jetzt ein Compressor, der den Pegel gleichmäßiger macht, Goldwave hat einen passenden Preset Effects|Dynamics & Compressor|Reduce peaks, dann wird der Pegel noch einmal auf maximale Aussteuerung gebracht und hat eine überschaubare Dynamik.
Die Musik wird ebenso mit Goldwave aus MP3 ins WAV-Format konvertiert und erfährt ein Heraufsetzen auf 95% des maximalen Pegels. Hier ist etwas Vorsicht geboten, denn gerade neuere Aufnahmen sind oft so hochkomprimiert, dass sie in der Lautstärke mit alten Aufnahmen schwer in gleichen Höreindruck zu bringen sind.
Für das Zusammenfügen von Musik, Text, Opener und Closer kommt nun n-Track zum Einsatz. n-Track ist keine Freeware, aber kostet nur ein Taschengeld. Dafür sind die Möglichkeiten und Funktionen, einschließlich der Oberfläche, kostenlosen Programmen wie Audacity weit überlegen. Alleine die vollständige VSTi-Integration ist ein Segen. Die einzelnen Elemente wie Text und Musik werden nun in zwei bis drei Spuren platziert und passend mit Envelopes – Hüllkurven für Laustärken – zum eventuellen Ein- und Ausblenden belegt. Im Screenshot von n-Track oben sieht man das genauer. Das alles ist keine Rocket Science, aber auch nicht trivial. Bevor der erste Podcast entsteht, mit dem man zufrieden ist, können viele Stunden mit Kämpfen vergehen. Weil etwas nicht funktioniert, nicht klingt oder beides.
Das Ergebnis landet aus n-Track als WAV-Datei auf der Platte und wird mit RazorLAME in das MP3-Format gebracht. Sender haben gerne 320 kBit/s, 44.1 kHz und Constant Bitrate. Fertig. Wären da nicht die Tricks, auf die man nicht sofort kommt.
Plugins
Plugins sind Programme, die nicht eigenständig laufen, sondern in Tools wie Audacity oder n-Track eingebunden werden. Sie filtern oder verändern die Signale einzelner Tracks oder des Gesamtsignals mit Hall, Compression oder vielen anderen Effekten. Logisch kann man sie sich wie ein Effektgerät vorstellen, das zwischen Instrument und Verstärker eingeschleift wird.
Die Plugins legt man am besten in ein Verzeichnis seiner Wahl, z. B. C:\\Programme\VSTi und sammelt dort in Unterverzeichnissen seine Lieblinge. Vergessen darf man nicht, dem Multitracker n-Track oder Audacity mitzuteilen, wo denn die Plugins stehen. Und es sollte einen Rescan für die VSTi-Plugins geben, die dann in der Effektliste auftauchen.
Diese Plugins sind das A und O der Produktion. Ob man nun ein bisschen Hall braucht, oder einen Equalizer oder Limiter, die Plugins erledigen alle diese Aufgaben. Doch nicht alle Plugins sind gleich, manche Freeware-Versionen können grottenschlecht sein. Eines der besten Hall-Plugins ist Ambience. Das kostet nur ein paar Euros, aber dafür bekommt man dann auch fast professionelle Tools. Freie VSTi-Plugins sucht man über Google, oder auch direkt bei Cakewalk.
Tipps und Tricks
Auf Nahbesprechungseffekte, Rauschen und solche Fußangeln bin ich schon oben eingegangen. Fängt man mit der Podcast-Produktion an, erwartet man nicht die vielen Schwierigkeiten, die auftauchen. Rauschende Mikros und Pulte, Brummschleifen, Geräusche aus der Umgebung sind Dinge, die man in den Griff bekommen muss. Doch ein paar Dinge weiß man erst, wenn man auf die Nase gefallen ist …
Voice Processor
Wer schon mal einen bekannten Moderator aus dem Radio live gehört hat, merkt den Unterschied. Aus dem Studio klingt es satter und breiter. Was daran liegt, dass im Studio immer ein Voice Processor mitläuft, der dem eigentlichen Sprachsignal zusätzliche Obertöne, Formanten, hinzu fügt. Dadurch bekommt die Stimme mehr Klang. Ein solches Gerät ist für den privaten Produzenten kaum erschwinglich. Aber es gibt sogar kostenfreie Alternativen als VSTi-Plugins. Eines der besten ist JB Broadcast, ein Voice Processor, der leider nicht mehr verfügbar ist, weil der Entwickler neue Plugins geschrieben hat. Daher hier mal als Download abgelegt. Weiterhin verwendbar sind After und VocEq sowie Rescue und RescueAE. Die letzten Plugins sind noch verfügbar und werden als Mastering Tools in den Track der Moderation als Effekt eingefügt. Ein wenig Probieren und Spielen muss sein, um für seine Stimme das Beste herauszuholen. Bei JB Broadcast nutze ich, mit tiefer Stimme und mittlerer Lautstärke, den Preset Normal, schalte die Pegelregelung (AGC) aus und setze den Postgain auf -1 dB.
Pegel, Pegel und noch einmal Pegel
Nicht einfach ist es, die Lautstärke zwischen Moderation und Musik auf ein kompatibles Maß zu bekommen. Ein Weg ist der, alle Bestandteile auf 100% zu normaliseren, bei der Moderation zwei Mal, einmal vor und einmal nach der Compression (Goldwave hat für diese Schritte schon alles eingebaut). Danach wird in n-Track die Moderation um ein bis anderthalb dB im Pegel zurück genommen, die Musik um ein halbes dB. Radiosender und Studios haben dafür andere Vorgaben, für den Bereich Rockmusik hat sich ein Pegelverhältnis Moderation/Musik von nahezu 1:1 bewährt. Bei Klassik sollte ebenfalls die Musik auf 100% normalisiert werden, jedoch die Moderation um vier bis sechs dB zurück genommen werden, da die Pegelweiten bei klassischer Musik anders sind. Probieren, probehören, justieren. Bei mir stellte es sich als optimal heraus, die Moderation auf maximalen Pegel zu ziehen und die Musik um -4 dB abzusenken. Das sind die obeigen 95%. Am Anfang eine unvermeidbare Geschichte, später weiß man, wie man die Pegelverhältnisse einstellen und erhören kann, denn sie hängen natürlich auch von der eigenen Stimme ab. Ein Hoch auf ein Paar zuverlässige Studio-Monitore am PC, damit bekommt man schon einen ganz zuverlässigen Eindruck, wie es beim Hörer später inetwa ankommt.
Immer böse: Latenz
Obwohl man denkt, dass Latenz, die Verzögerung zwischen Abschicken des Signals in die Audioschnittstelle und Ankunft am analogen Ausgang, bei Podcasts keine Rolle spielen sollte, liegt man falsch. Nicht für den Podcast später, sondern für das Arbeiten mit der Mischsoftware. Latenzen sind nämlich nicht konstant, sondern hängen von der Belegung der Puffer im Betriebssystem ab. Obwohl man beim Abmischen noch korrigiert, spielt die unterschiedliche Speichernutzung mit mehreren Spuren eine Rolle. Einfache Lösung: entweder nach einem ASIO-Treiber für die Audioschnittstelle suchen, oder einen unversellen ASIO-Treiber installieren, ASIO4All. Ist kostenlos erhältlich.
Was nichts kostet …
Wie professionell oder eben auch nicht es wird, hängt von den Investitionen ab. Sparen am Mikro ist die schlimmste Sünde, die man sich leisten kann. Doch die einen oder anderen zwanzig Euro für vernünftige Software zu verwenden, macht sich im Arbeiten und auch in den Ergebnissen bemerkbar. n-Track mag auf den ersten Blick verwirrend aussehen, aber es erlaubt mehr an Funktionen als eben Audacity. Auch mit den Softwareversionen von Steinberg, die bei Produkten wie Soundkarten oder USB-Audio-Schnittstellen dabei sind, kann man schon besser arbeiten als mit Audacity. Man sollte sich den Gedanken sparen, es würden mal eben etwas Software und Hardware zusammen gesteckt und fertig ist der Podcast. Dieses Verfahren zieht entsprechende Ergebnisse nach sich.
Text, Text und noch mal Text
Letzter Punkt sind die Moderationstexte selbst. Der Vorteil beim kompletten Ausformulieren ist, dass die Fehlerrate beim Einsprechen deutlich sinkt. Der Nachteil ist, dass es oft gerade am Anfang wie Vorlesen aus der Zeitung klingt. Auch das geht nicht bei den ersten drei Aufnahmen, man muss es lernen und üben, sich an den Klang der eigenen Stimme gewöhnen und auch Selbstkritik üben. Füllwörter, die man im schriftlichen Journalismus meidet, flapsige Begriffe und Alltagssprache sind in der Audio-Moderation unverzichtbar. Trotzdem darauf achten, dass in den Füllwörtern eine Varianz vorhanden und zu hören ist. Ein Podcast ist keine Nachrichtensendung, er soll unterhalten. Unterhaltung hat eine andere Sprache als Nachrichten. Auf der anderen Seite stark subjektive Wertungen und Urteile vermeiden. Die gehören auch nicht in einen Podcast, selbst in einen über Musik nicht.
Eine wenigstens etwas hilfreiche Maßnahme gegen zu leierigen Text ist Sprachtraining. Wer jedoch für den einen oder anderen Podcast nicht gleich eine Sprecherausbildung machen will, kann mit Büchern wie diesem anfangen. Keine Garantie, aber schon Tipps und wenige Regeln können helfen.
Zielgruppen-gerecht denken!
Und immer daran denken: der Köder muss dem Fisch schmecken, nicht dem Angler.