Visual Effects

VFX 3D

Kirche

Was es in Wirklichkeit nicht gibt, kann vom VFX- Design für den Film nachgebildet werden

Digitale Effekte sind aus internationalen Fantasy-Großproduktionen gar nicht mehr wegzudenken. Die stetige Weiterentwicklung von Hard- und Software eröffnet heute Möglichkeiten, die einen hohen Grad an Realismus möglich machen.

 

Peter Jackson mit seinen "Herr der Ringe" Adaptionen oder mit "King Kong" gehört sicher zu den Regisseuren, die besonders intensiv in die digitale Trickkiste greifen. Aber auch Filme wie "Batman", "Matrix","Harry Potter", "Star Wars" oder "Krieg der Welten" wären ohne VFX nur halb so interessant.

Die Arbeitsabläufe beginnen mit der Planung. Im sogenannten Concept-Design legt man die Örtlichkeit, die Szene, Licht etc. fest. Anschließend erstellt man im sogenannten Modelling das 3 D Modell.

 

Regeln, auf welche Weise das Modell auf Licht reagiert, also ob die Oberfläche glatt, rauh oder etwa matt ist, werden im Shader Writing festgelegt. Im Texturing wird die Oberflächentextur festgelegt. Hier werden Haut, Haare, Fell, Kleidung etc. definiert. In der Animation wird ein 3-D Modell (Nurb) in Bewegung versetzt.

 

Im Effects- Bereich werden besondere Medien wie Nebel, Wind, Wasser, Feuer etc. hinzugefügt. Lichteffekte und Wirkungsweisen wie Einfallswinkel, Schattenbildung etc. werden hinzugefügt. Im Compositing werden die erstellten Effekte dann mit Hintergründen oder Realaufnahmen kombiniert.

 

Bildergänzungen

 
Compositing1.jpg
Dass hier in Wirklichkeit viel weniger und kleinere Zelte stehen, weiß nur der VFX-Artist

VFX, so die Kurzform für Visual Effects, spart den Produzenten häufig gigantischen Bau-Aufwand, indem nur bestimmte Bereiche des Motivs real gebaut, und der überwiegende Teil dann später im Rechner hinzugefügt wird. Man spricht dabei von "Set-Extentions"

 

Das Verfahren ist aus der Frühzeit des Films bekannt, der deutsche Kameramann Eugen Schüftan hat seinerzeit mit Spiegeltricks die real gebauten Kulissen erweitert und damit Grundlagen für heutige VFX-Techniken vorweggenommen.

 

Bereits Klassiker wie Ben Hur nutzten Matte-Verfahren, um für Totalen nicht das ganze Kolosseum in Rom nachbauen zu müssen. Man baute nur den unteren Teil und ergänzte dann die oberen Reihen optisch.

 

Die damaligen eingespiegelten oder auf Glasplatten gemalten Bildergänzungen hatten vor allem den Nachteil, dass sie starr und unbeweglich waren. Die heutigen digitalen Nachfolger können die einmontierten Bildteile selbstverständlich in animierter Form bereitstellen und damit ein höheres Maß an Realismus erzielen.

 

In Jacksons "King Kong" wurde etwa als Set der Times-Square des Jahres 1933 nur bis zur ersten Etage real nachgebaut und die übrigen Etagen wurden mit dem Computer generiert. (CG)

Selbstverständlich kann man auch Bildfehler korrigieren, wenn etwa ein Komparse in einer ansonsten hervorragenden Einstellung kurz in die Kamera schaut, lässt der VFX- Operator eben in dem Moment eine andere Person vor dem Komparsen durchs Bild gehen.

 

Auch die Wettersituation lässt sich gezielt steuern. Ein bedrohlicher, dunkler Wolkenhimmel lässt sich problemlos einem eigentlich nur sanft und freundlich bedecktem Motiv hinzufügen. Dafür können Realaufnahmen eingefügt, oder aber hochauflösende Fotos per Morphing-Programm animiert werden.

 

Wasserspiele

Zu den größten Herausforderungen gehört nach wie vor die Simulation von Rauch und Wasser. Bettet man Studioaufnahmen mit Schauspielern vor Green oder Blue Screen in CGI- Hintergründe ein, wird häufig reales Wasser verwendet.

 

Schauspielern, die auf einem Schiffsnachbau im Studio agieren bekommen reales Wasser ins Gesicht gespritzt. Auch für das Einbetten von Wasserflächen in CGI-Welten werden häufig Realaufnahmen eindigitalisiert, verfremdet und in die künstlich entworfene Welt hineinmontiert. Diese Arbeit übernehmen Compositeure. Insbesondere Meeressituationen mit unterschiedlicher Wellenstruktur und Verwirbelungen sind extrem schwer zu simulieren.

 

Die Verwendung von real gefilmten Elementen (Footage) erlaubt organischere, realistischere Ergebnisse. Für die Aufnahmen eines animierten, mehrere hundert Jahre alten Segelschiffes, verwendet man echte Bugwellen (Water-Plates), die von einem realen, grün gestrichenen Verdrängerschiff erzeugt werden. Damit sich das 3D Modell organisch in das Bild vom realen Meer einfügen lässt, versieht man den Kutter zusätzlich mit Trackingpunkten, um die Wasserbewegungen auch des Begleitschiffes, von dem aus gefilmt wird, in das 3-D Programm einberechnen zu können.

 

Creatures

Während in der filmischen Frühzeit Fabelwesen entweder von Menschen in entsprechenden Fellkostümen oder durch Puppen (geführt oder animiert) dargestellt wurden, arbeitet man heute vorzugsweise mit Animationsprogrammen. Ganz überflüssig sind die menschlichen Darsteller auch heute nicht, denn die Mimik und die Bewegungen der Fabelwesen werden, um einen realistischen Eindruck zu bekommen, per "Motion Capture" von Menschen übernommen.

 

Während die grundsätzlichen Abläufe über Gitternetze (mit einfacher Nurbs-Geometrie oder im Polygon-Modeler, Bewegungs-Rig) programmiert werden, stellen anschließend vor allem die Oberflächen (Textures) eine große Herausforderung dar. Insbesondere Haare, aber auch Haut sind nur schwer realistisch aussehen zu lassen.

 

Die Spezialisierung bei den Schöpfern animierter Wesen ist inzwischen sehr weit fortgeschritten. So gibt es eigene Haarspezialisten, die sich darum kümmern, Haare oder Fell möglichst natürlich aussehen zu lassen. Für eine Nahaufnahme können da leicht mehrere Zehntausend Haarbüschel erforderlich sein, der Wuchs und Verlauf möglichst naturgetreu verlaufen müssen.

Sogenannte Deformer, wieder andere Spezialisten müssen sich dann später in einem weiteren Arbeitsgang darum kümmern, die Einflüssen von Wind, Bewegung und Dynamik auf die Haare und das Fell zu übertragen. In einem weiteren Arbeitsschritt müssen dann die Lichtverhältnisse auf die Haare übertragen werden. Wie wird das Licht an den Haaren gebrochen, wird es reflektiert oder leuchtet es auch hindurch? Wie reagiert es im Auflicht, wie bei Gegenlicht?

 

Motion Capturing

Damit animierte Fantasiewesen oder Menschen möglichst realistische Bewegungsabläufe haben, lässt man die Bewegungen von echten Menschen ausführen und zeichnet die Bewegungsdaten mit sogenannten Motion-Capturing (Mocap) Systemen auf. Hierfür werden am Körper und Gesicht des Menschen Markierungspunkte angebracht, welche später verwendet werden, um den künstlichen CGI- Wesen die gleichen Bewegungsabläufe zu verleihen.

 

Für die Ganzkörperbewegungen (Full Body Performance) ziehen die Darsteller hautenge schwarze Kostüme an, die mit Marken versehen sind. Die Aufnahmen geschehen vor schwarzem Hintergrund, sodass die hellen Markierungspunkte leichter zu erfassen sind.

Sogenannte Motion-Editoren analysieren die Abläufe mit Hilfe spezieller Software und übertragen diese in Form einer Keyframe Animation. Dafür werden häufig nur bestimmte Phasen der Bewegung als Einzelbilder eingelesen und als sogenannte Key-Poses verwendet, während daraus dann die Zwischenphasen (In Betweens) erstellt werden.

 

Besonders schwierig ist es, Gesichtsmuskeln auf animierte Wesen zu übertragen. Die hohe Zahl der an unserer Mimik beteiligten Muskeln erfordert für das Motion-Capturing (Facial Mocap) besonders viele Bezugspunkte (über 100 Punkte) im Gesicht.

 

Rechenarbeit

Auch wenn in den Animationsstudios Hochleistungsrechner ihre Arbeit verrichten, dauert die Berechnung eines einzelnen Bildes mehrere Stunden. Schuld daran sind nicht etwa die geometrischen Konstruktionen, die sogenannten Nurbs, geometrische meist polygone Formen, die je nach organischer Beschaffenheit in mehreren Arbeitsgängen in immer kleiner geometrische Einheiten aufgeteilt sowie weich und rund gerechnet werden, sondern die Oberflächen. Gängige Programme für 3 D sind: Alias Maya, 3ds Max, Softimage XSI, Lightwave, Cinema 4D.

 

Dabei spielt es eine enorme Rolle, in welcher Auflösung die künstlichen Welten erstellt werden. Bei komplizierten Totalen mit vielen Details, die für 35mm Kinofilm erstellt werden, sind Auflösungen beispielsweise von 2732x4096 Pixel  oder 2048X4096 Pixel für die Oberflächen oder Hintergründe durchaus sinnvoll. Die Szenen werden  in 2 oder 4k angelegt. Bei 1.85:1 oder gar 2.35:1 werden die Seitenverhältnisse entsprechend auf das jeweilige Format angepasst.

 

Da die Office-Rechner speziell mit ihren Dual- oder gar Quad-Prozessoren und 64 bit Architektur immer erschwinglicher werden, kann der Heimanwender anspruchsvolle Vorhaben durchaus auf diesen Geräten ausführen. Hier hat eine ungeheure Demokratisierung der Produktionsmittel stattgefunden. Besonderer Engpass bleibt sicher die Datenmenge, die entsteht, wenn man für HD oder das Kino arbeiten möchte. Und natürlich die Zeit, denn realistische CGIs und 3D Animationen benötigen extrem viel Manpower.

Tendenziell werden die Rechner Jahr für Jahr immer schneller und auch die Software wird effektiver. Damit werden künftig immer größere kreative Freiräume für die VFX-Artisten möglich.