Digital

  • Kameraapp 500Die praktischen Helfer auf Smartphone und Tablet sind von Filmsets kaum mehr wegzudenken. Ein Überblick im Dschungel der Filmapps...

  • Unter dem schon früh geprägten Begriff "Alternate Reality Game" verbirgt sich das Erzählen über Mediengrenzen hinweg.

  • Arri AlexaArri München bietet generalüberholte, gebrauchte Alexas zu günstigen Preisen an. Lohnt sich das, und was erwartet einen?

  • Nach den DAT Rekordern folgten bald Digitalrekorder, die auf Harddisk oder Festspeicher aufzeichneten und File-basierte Aufnahmen machten

  • Fostex PD2In den 90ties wurde dieser legendäre Rekorder zum de Facto Standard an den internationalen Filmsets. Titanic wurde mit ihm recorded...

  • Digital automatisch genial?

    Mann mit Kabeln

    Digital ist nicht gleich digital.

    Es ist mittlerweile ein paar Jahrzehnte her, da amüsierten die Audiophilen sich über den Versuch, analoge Tonwellen in winzige Bits zu zerlegen und später wieder zusammenzusetzen. Inzwischen wurden sie, zumindest teilweise, von der Qualität digitaler Aufzeichnungstechnik überzeugt. Lange Zeit wurde die digitale Aufzeichnung von Audiosignalen als eine Art Demokratisierung der Qualität gefeiert. Die Tonqualität wird nicht mehr durch Bandmaterialien oder Tonköpfe beeinflusst, sie ist schlicht durch Binärcode festgelegt und jedes Gerät spielt die gleichen Dateninformationen ab. Digitale Kopien sollten identisch sein, die totale Reproduzierbarkeit einheitlicher Ergebnisse schien erreicht.

     

    Doch schon bald zeigten sich erste Unterschiede. Man diskutierte über Wandler, über Prozessoren und über ein gefürchtetes Phänomen, genannt Jitter. Heute, wo mehr und mehr digitale Geräte bei der Aufnahme und Bearbeitung von Filmton zum Einsatz kommen, sollte man sich über die heimlichen, die verborgenen Qualitätsunterschiede Gedanken machen.

     

    Verbindungen

    Bei der digitalen Signalübertragung müssen die miteinander verbundenen Geräte aufeinander synchronisiert werden. Dies geschieht durch ein Mastergerät, dessen Takt die anderen Geräte als Slave folgen oder durch einen Haustakt, an dem alle Geräte gleichberechtigt hängen. Der Takt kann über die Schnittstelle oder durch Wordclock weitergegeben werden. Die digitalen Toninformationen, die in Form von Binärcode aufgezeichnet oder abgespielt werden, sind entweder an eine Zeitinformation gekoppelt oder beinhalten sie sogar im gleichen Signal. SPDIF (Sony/Phillips) oder AES/EBU sind solche Signale mit eingeschlossener Zeitinformation. Der User bekommt von dieser Synchronisation gar nichts mit.

     

    Ursachen für Jitter

    Sauberes Digitalsignal

    Sauberes Digitalsignal

    Die Zeitinformation wird meist über ein Rechtecksignal transportiert, dessen Wechsel zwischen High und Low den Takt festlegen. Wenn diese Abstände mehrmals hintereinander nicht konstant sind, so haben wir Jitter im Signal. Das Slave-Gerät stellt den internen Takt permanent nach, das Verfahren nennt sich PLL (Phase Locked Loop). Dieses Nachstellen geschieht extrem schnell sodass wir es nicht hören können. Die Regelvorgänge verursachen aber Abweichungen der Soll-Abtastfrequenz, diese nennt man Jitter.

     

    Jitter ist, wie das Wort sagt, eine Art Vibration, es sind Abweichungen eines Ereignisses. Es handelt sich also um Phasenschwankungen digitaler Art. Mal tritt es früher, mal später ein. Die Zeitspanne zwischen dem frühesten und dem spätesten Auftreten nennt man "peak to peak jitter amplitude."

    Unsauberes digitales Signal

    Unsauberes digitales Signal

     

    Ungenauigkeiten des Taktgebers, meist Quarz-Oszillatoren, aber auch Schwankungen in der Spannungsversorgung können Jitter verursachen. Ebenso beeinflussen etwa die Motoren in Geräten, z. B. CD-Playern oder DAT-Rekordern Schwankungen, die zu Jitter führen können. Auch Fehlanpassungen in der Impedanz verschiedener Geräte oder Einstreuungen (Störsignale) auf dem Kabelweg können Ursachen sein. Ein kritischer Punkt sind auch Computer-DSP-Karten. Durch ihre Anbindung an Host-Computer und die Nähe zu den computereigenen Oszillatoren ist es sehr schwierig und aufwändig, einen sauberen, jitterfreien Takt zu erzeugen. Auch die Schaltnetzteile in den Computern sind selten absolut stabil und sauber, weitere Schwachstellen sind die Masseverbindungen in den Rechnern. Die beliebten Plug-Ins können auf diese Weise weiteren Jitter dem Signal hinzufügen.

     

    Kann man Jitter hören?

    Es kommt darauf an. Der Ort, an dem Jitter entsteht, ist die A/D-Wandlung, hörbar wird er bei der D/A-Wandlung. Dort wird zwar jedes Sample präzise mit dem richtigen Spannungswert wiedergegeben, aber zeitlich gegeneinander verschoben. Das führt zu einer Verzerrung der Signalform. Wir der Jitter abhängig vom aufgezeichneten Tonsignal erzeugt, so entsteht eine Art Intermodulationsverzerrung, ist es eher beliebig, wird Rauschen hörbar.

     

    Generell wird das Klangbild unpräziser. Man kann einzelne Ereignisse oder Musikinstrumente schlechter von anderen separieren, der Klang wird unklarer, breiiger. Aufnahmen mit geringem Jitter wirken transparenter, haben feinere Höhenauflösung und sauberere Basswiedergabe. Auch der Dynamikumfang, der bei einer einwandfreien Wandlung über 120 dB betragen kann, wird durch Jitter auf Werte um die 100 dB verringert. Häufig kommt es vor, dass eine Aufnahme, die man mit dem DAT-Rekorder gemacht hat, nach dem Überspielen auf CD von der CD viel besser klingt. Konstruktionsbedingt werden die digitalen Daten von einer CD viel gleichmäßiger ausgelesen als vom DAT-Band, welches Dehnung, unterschiedliche genauem Bandlauf und anderen Widrigkeiten ausgesetzt ist. Hier sind viel größere Regelvorgänge erforderlich, um ein gleichmäßiges Taktsignal zu erreichen.

     

    Also doch!

    Digitaleingang

    Digitaler Eingang

    Auch wenn viele Hersteller das verneinen: Es gibt eben doch Unterschiede zwischen digitalen Geräten. Die Präzision der mechanischen Antriebe spielt eine große Rolle, ebenso die Regelkreise der Spannungsversorgung. Einige Hersteller nutzen Riemenantrieb für die CD-Laufwerke, um höheren Gleichlauf zu erzielen, bauen die Laufwerke mechanisch robuster, die Netzteile aufwändiger auf. Die Quarze der internen Taktgeneratoren der meisten Consumer-Geräte sind 50-Cent-Produkte und weisen keine wirklich hohe Signal-Stabilität auf. Die Güte und die Länge von Digital-Kabeln hat ebenfalls Einfluss auf Jitter. Damit kann der Klang einer angeblich ja rein mathematisch identischen digitalen Aufnahme je nach Gerät und Verbindung stark von einander abweichen (digitale Kabel sollten 110 Ohm Innenwiderstand aufweisen). Generell ist symmetrische AES/EBU-Verbindung mit XLR-Kabeln besser als die asymmetrische SPDIF-Verbindung. Optische Signalübertragung ist sicherer als die kabelgestützte. Jedes Gerät, welches in der digitalen Kette hinzugefügt wird, fügt weitere Fehler in der Taktung hinzu. Jitter addiert sich also mit der Anzahl der Geräte.

     

    Wahl der Uhr

    Doch auch, wenn ein externer Takt verwendet wird, so kann durch die Kabelübertragung des externen Taktes bereits Jitter entstehen. Wenn man lediglich eine Aufnahme auf das Band aufzeichnen und nicht nachträglich weitere digitale Spuren parallel aufzeichnen will (Multitrack), ist es am sichersten, den eigenen geräteinternen Takt zu verwenden. Analog/Digital-Wandler sollten nach Möglichkeit mit ihrem eigenen Taktgenerator laufen, das gewährleistet höchste Stabilität. Bei nacheinander aufzuzeichnenden Mehrspuraufnahmen steht man jedoch bereits vor dem Problem, dass die Wandler extern synchronisiert werden müssen. In diesem Fall entscheidet die Güte des taktgebenden Generators (Wordclock) über die Präzision der Wandlung. Doch auch die einwandfreie Verkabelung und Verteilung des Wordclock-Signals entscheidet. Nur, wenn es sauber und mit ausreichend hohem Signalpegel am Gerät ankommt, wird der Jitter-Anteil niedrig sein.

     

    Vermeiden Sie Sample-Rate Wandlungen (Conversions), die sind häufig Ursache von Jitter! Moderne Masteringsysteme lesen übrigens das gesamte Audiomaterial in einen Ram-Speicher (Arbeitsspeicher) ein, um beim Brennen einer Master-CD etwa völlig unabhängig vom Clocksignal eines Zuspielers mithilfe eines extrem präzisen Oszillators die sauberen Daten zugreifen zu können.

     

    Jitter ist nicht immer hörbar. Viele Störungen bleiben unbemerkt oder fallen einem nur im direkten Hörvergleich mit "sauberen" Aufnahmen auf. Das Ziel unserer Tonarbeit sollte eine höchstmögliche Qualität sein, bei Neuanschaffungen kann ein Blick auf die Jitter-Messwerte in den technischen Angaben helfen, dieses Ziel zu erreichen. Die Vermeidung von Fehlern bei der Verbindung und Taktung digitaler Geräte ist ein weiterer Schritt, die Signalqualität hochwertig zu erhalten. Mag sein, dass der Aufwand sich für den durchschnittlichen TV-Lautsprecher nicht unbedingt lohnt. Doch man kann nie wissen, ob Ihr nächstes Werk nicht vielleicht im THX-Kino oder auf DVD/Blu-ray zu hören sein wird.

     

  •  

    So klein wie nur irgend möglich!

    Hand zerknüllt Videoband

    Die umfangreichen Daten eines Videobandes müssen reduziert werden, um sie verbreiten zu können. Leider ist das komplexer, als gedacht.

    Das Problem ist bekannt: Videos im Computer sind gewaltig große Datenbrocken. Nur eine Stunde Videomaterial in DV-Qualität braucht ca. 10 bis 12 GB (GigaByte). Hat man nur ein Filmprojekt mit wenigen Stunden Schnittmaterial ist schon die Festplatte randvoll und man findet kaum noch Restplatz, um am Ende des Schnitts die Effekte zu rendern, einen Video/Audio-Mixdown zu machen oder ein Image für eine DVD-Erstellung anzulegen. Schnell denken viele unerfahrene Videokünstler an MPEG, DivX, Codecs, Kompression... Eine DVD hat doch eigentlich eine Top-Video-Qualität und immerhin passen da 120 Minuten auf einen 4,7 GigaByte Rohling. Warum also nicht das Videomaterial auf der Festplatte genauso verkleinern? Machen wir es doch so klein wie möglich! Aber Vorsicht! So einfach geht es nicht!

     

    Bringen wir Ordnung in das Gewirr der Fachbegriffe, Techniken und Möglichkeiten.

     

    Kompression und Reduktion

    Klar, hier geht es nur um digital vorliegendes Video- und Audio-Material, sprich das was wir etwa nach einer Digitalisierung im Computer haben. Ein Video besteht aus Einzelbildern (25 Vollbilder = 50 Halbbilder bei PAL, 30(29,9) / 60 bei NTSC pro Sekunde). Dabei ist ein Video auf der Festplatte nichts anderes als eine Datei in der hintereinander alle 25 bzw. 30 Vollbilder pro Sekunde abgespeichert werden. Will man das Video in seiner Speichergröße verringern muss man die Einzelbilder in ihren Bits und Bytes verkleinern. Allgemein spricht man hierbei von Kompression, wobei man fälschlicherweise eigentlich zwei Vorgänge unter diesen Begriff vermengt und dabei "Kompression" falsch erklärt.

     

    Wird ein Video in seiner Speichergröße verkleinert, wird meist eine Kompression und(!) eine Reduktion durchgeführt. Dabei bedingt die Kompression keine Verminderung der Qualität. Durch Mathematische Berechnungen und Umwandlungen werden die Informationen kleiner gepackt. Nach einer Dekompression stehen die ursprünglichen Informationen exakt wieder zur Verfügung. Die einzelnen Techniken die bei Kompressionen zur Verwendung kommen sind die selben wie man sie allgemein in der PC-Welt anwendet, z.B. mit den ZIP, RAR, ACE oder CAB-Packern. Leider führt Kompression aber bei Video im Gegensatz etwa zu einfachen Testdateien oder Tabellen zunächst nur zu sehr geringen Verminderungen der Dateigrößen.

     

    In der Reduktion wird die Kompression erweitert um verschiedene Techniken bei denen definitiv Bildinformationen verloren gehen. Die einfachste Reduktion wäre die Verkleinerung der Auflösung. Die Einzelbilder des Videos werden kleiner und die Datengröße schrumpft entsprechend. Daneben gibt es zahlreiche weitere Techniken. Solche Reduktionen bedeuten unwiderrufbaren Verlust und somit eine Verschlechterung der Qualität des Videos. Bis zu gewissen Grenzen kann man hier gehen, ohne das das menschliche Auge den Verlust bemerkt. Weitere Reduktionen können je nach Zuschauer noch akzeptiert werden oder nicht.

     

    Die einzelnen Techniken und Verfahren werden im ersten Teil dieser Artikelreihe näher dargestellt. Da es sich schon zu sehr eingebürgert hat, wird auch im Folgenden nur von "Kompression" gesprochen.

     

    Codecs, AVIs und MOVs

    Kompression und Reduktion erfolgt durch Programme, entweder der Schnittsoftware, der in diesen enthaltenen Tools oder einer speziellen zusätzlichen Software. Verwendete Techniken, Verfahrensweisen, Formate und sonstigen Details (z.B. Kompressionsmatrixen) werden als sogenannter "Codec" zusammengefasst. Sie müssen auf den Rechnern installiert sein (=Encoder) und können dann z.B. von der Schnittsoftware dazu verwendet werden, Video und/oder Audio-Material zu komprimieren. In die verkleinerte Datei wird der Hinweis auf den Codec und alle nötigen Informationen zur angewandten Codierung abgespeichert. Ein Decoder wird dann auf jedem System benötigt, auf dem das Video/Audio später wiedergegeben werden soll.

     

    Häufig werden AVIs und MOVs als Codecs bezeichnet, was allerdings nicht ganz richtig ist. Genau genommen sind es eigentlich Dateiformate, bzw. Container für Video/Audio-Material in bestimmten Codecs. AVI steht für Audio-Video-Interlaced und wurde Anfang der 90er von Microsoft eingeführt. Als "Video für Windows" sollte es eine Art Rahmen für verschiedene Video-Formate bieten, die auf Windows abgespielt werden konnten. Naben dem Windows Media Player von Microsoft können auch viele andere Programme AVIs verwenden. Das Format gibt grundsätzlich einen Rahmen mit z.B. zulässigen Auflösungen und Bildfrequenzen vor. Damit stellt es einen Standard dar. Erfüllen Codecs diesen und sind sie im System installiert, können diese zu AVI gewählt werden.

     

    Ähnlich verhält es sich bei MOV. Dies ist ein Format das Apple ebenfalls Anfang der 90er herausgebracht hat. Es ist das Standard-Format des Apple-Quicktime-Players und war bis Ende des Jahrhunderts dem AVI noch überlegen. Inzwischen liegen die beiden Formate gleichermaßen auf, wobei AVI mit dem Siegeszug des MPEG-Codecs eigentlich die Apple-Formate in der Gunst der Consumer überholt hat. Auch MOV stellt einen Container für Audio- und Video-Material in verschiedenen Codecs und stellt einen Standard dar.

     

    AVIs und MOVs lassen sich an den Dateinamenerweiterungen *.avi und *.mov erkennen. Neben diesen beiden Container-Formaten gibt es verschiedene weitere, die aber nicht so stark verwendet werden und daher hier nicht behandelt werden können.

     

    Mehr und mehr Bedeutung werden in Zukunft die neuen Microsoft-Formate WMV und WMA bekommen. Sie sind zwar Nachfolger von AVI aber genau genommen Codecs. Allein durch die Macht von Microsoft - die Marktbeherrschung und die finanziellen wie fachlichen Mittel des Konzern - werden bald auch die großen Hersteller von Video-Schnittprogrammen und -Systemen die neuen Windows-Media-Formate zunehmend einsetzen und integrieren. Noch ist im professionellen Video-Schnitt MOV der führende Standard.

     

    Autor: Tankred Tumpach
  • Sicher gut, aber leider sehr mühsam,- so der Erfahrungsbericht zum Mischer mit Aufnahmemöglichkeit

  • Die so wichtige Tonebene beim Film setzt sich aus sehr vielen verschiedenen Elementen zusammen, die man jedoch in Gruppen aufteilen kann.

Workshops 2019

Viel Kreatives vor? Mit Movie-College Hands-On Workshops Filmlicht, Filmton/Location Sound, Kamera, Drehbuch u.v.a, kann man sein Knowhow spürbar verbessern und stärkere Filme machen.