Wie entstehen Bilder und Animationen in 3D?

Vermählung von klassischer Handarbeit und fancy 3D-High-Tech

Vorweg: 3D-Visualisierung ist nicht gleich 3D-Visualisierung.

Die Anwendung von 3D-Visualisierungstools greift weit. Von der vollständig abstrakten Kunstform über illustrative Darstellungen von Abläufen und Zusammenhängen, Vermarktungsbebilderungen für immobilien und Produkte oder filmisch-dokumentarische Darstellungen. Allen Anwendungen ist dabei etwas gemein: Die Grundlage bildet immer ein dreidimensionales Modell (ein Wireframe-Modell), das entsprechend inszeniert wird.

1. Modellieren und/oder konvertieren

Der herausragende Vorteil von 3D-Tools gegenüber klassischen Abbildungsmöglichkeiten liegt darin, dass sich jede erdenkliche Form und jede Situation aus dem «Nichts» erschaffen lässt. Für die Darstellung einer Situation kann jede Idee zur Realität werden werden – egal wie unmöglich dies in der echten Welt wäre. Doch dabei gilt wie auch in der echten Welt: Je mehr Details vorhanden oder gewünscht sind und je höher der Realitätsgrad, desto aufwendiger die Erstellung des Modelles. Denn ganz wie in der echten Welt muss jedes Objekt zuerst mit all seinen Eigenheiten und Details «modelliert», also digital gebaut werden.

Bei der Darstellung existierender Objekte hilft, dass sich CAD-Daten aus der Konstruktion verwenden lassen, um ein virtuelles Abbild zu schaffen. Dazu werden die digital vorliegenden Konstruktionsdaten importiert und in Polygondaten umgewandelt werden. Beschreibende (parametrische) Daten, in welchen Abmessungen, Positionen und technische Eigenschaften festgehalten sind, werden dabei in ein Gitternetz umgewandelt, welches mit zahllosen Drei- respektive Vierecken die Form des vorliegenden Objektes möglichst genau darstellt.

3D-Daten in Visualisierungsanwendungen: Die Form stimmt, der Look eher nicht so ganz... Sämtliche Konturen werden in einem Wireframe-Modell durch Polygone – in diesem Fall Vierecke – «nachgebaut».

Geometrie mit Licht aber noch ohne Materialien

Dieselbe Geometrie – jetzt aber mit allen Materialien

Die Materialien für die beiden Objekte der entsprechenden Szene

2. Das Material machts aus

Je näher eine Visualisierung der echten Welt kommt, desto überzeugender das Ergebnis. Software für Visualisierungen versucht deshalb, die optischen Gegenbenheiten der Realwelt möglichst genau nachzuahmen. Möglich wird dies durch die Berücksichtigung zahlreicher Parameter, die in der Kombination die nahezu perfekte Illusion ergeben:

  • Farbigkeit (und Muster)
  • Reflektion und Spiegelung
  • Transparenz
  • Rauheit
  • Volumenstreuung
  • Leuchten

Für jede Farbe und jedes visuelle Detail eines Modelles muss nun ein Material erstellt werden. Dies gilt für jedes Element, das in der echten Welt einen «eigenen» Look hat - also beispielsweise Glas, Chromstahl, Aluminium, lackierte Oberflächen, beschriftete Oberflächen, leuchtende Elemente, Displays und so weiter.

3. Ab ins Studio

Auch eine noch so ausgereifte Materialisierung macht die Szene noch lange nicht realistisch. Wie in der realen Fotografie – oder im realen Film – macht erst das Licht das Bild. Ein Studio muss her. Kamera(s), Licht und eine Umgebung also.

Beim Licht verhält es sich weitestgehend wie im Realen. Kleine Spots für scharfe Schatten, grosse Flächenleuchten für softe Schatten. Einen echten Unterschied bringen HDRI-Beleuchtungen. Diese arbeiten mit Bildmaterial, das auf echten Sets (drinnen wie draussen) fotografisch aufgenommen und dann auf die Szene angewandt wird. So lassen sich auch realistische Spiegelungen auf Glas und metallischen Oberflächen erreichen, ohne die gesamte Umgebung dreidimensional nachbauen zu müssen.

Die virtuelle Kamera verhält sich ebenfalls wie in der echten Welt. Die 3D-Software simuliert Objektive, Blendeneinstellungen und Verschlusszeiten. Damit lassen sich auch reale Effekte wie Tiefen- und Bewegungsunschärfe simulieren. Den richtigen Bildwinkel zu finden ist dann die Arbeit des «Kameramannes».

4. Aus Set wird Film

Im Bisherigen gingen wir von «Stills» aus – also von einzelnen Standbildern, wie sie im Sinne der Produktfotografie oder der Illustration benötigt werden. Die Komplexität steigt, wenn sich die künstliche Welt zu bewegen beginnt. Während einfache Kamerafahrten durch die bereits erstellte Umgebung noch mit verhältnismässig überschaubarem Aufwand zu bewerkstelligen sind, fordern Animation ganz neue Geschicke.

Zum Einen macht es eine Animation erfoderlicht, dass Objekte (und ganze Umgebungen) nicht nur aus einer Perspektive echt aussehen – sondern von allen Seiten korrekt dargestellt werden müssen. Wenn wir ein Objekt in einer Ecke abbilden, lässt sich – wie im Kulissenbau – Zeit sparen, weil nicht der gesamte Raum nachgebaut wird. Bewegt sich die Kamera nun, wird der sichtbare Bereich grösser und damit auch unsere «Kulisse».

Zudem müssen Objekte erst dazu gebracht werden, sich richtig zu bewegen. Bei technischen Objekten wie Robotern oder Fahrzeugen bedeutet dies, dass diese zuerst hierarchisch korrekt aufgebaut und dann «geriggt» werden müssen. Technische Zusammenhänge – wie zum Beispiel, dass ein Rad an der Achse hängt, die wiederum am Motor und an der Lenkung hängt – müssen zuerst erstellt werden. Dann werden «Programmierungen» ausgeführt, die beschreiben, was geschieht, wenn ich am Lenkrad drehe oder aufs Gas trete. Das Modell selbst weiss nämlich nicht von sich aus, wie sich das Rad mit all seinen Einzelteilen in einer Abhängigkeit zu anderen verbundenen Elementen bewegen soll.

4b. Aus Hülle wird Leben

In der «organischen» Animation wird alles noch etwas komplexer. Hier macht die Animation einen riesigen Unterschied zum Modell fürs Still-Bild.

Um beispielsweise einen menschlichen Körper zu simulieren, muss dieser (nachdem er modelliert und materialisiert wurde) mit einem digitalen Skelett (einem Rig) versehen werden. Hier ist noch alles gleich wie bei technischen Objekten (beim sogenannten hard surface modelling), denn auch hier bedeutet die Hierarchie alles: Fingerkuppe hängt an Finger hängt an Handfläche hängt an Unterarm hängt an Oberarm hängt an Schulter... Wenn ich also am kleinen Finger ziehe, soll sich letztlich auch die Schulter bewegen... Soweit sogut.

Nun muss aber das Skelett mit der «Hülle» des Körpers verbunden werden. Das mag sich trivial anhören, bedeutet jedoch, dass auch die eigentlich unsichtbare Muskulatur nachgebaut werden muss. Dieser Schritt beschreibt vor allem, wie weit unsere Hülle vom jeweiligen Knochen des Skeletts entfernt liegt. Aber auch, wie sie sich zu Gelenken verhält. Ohne diese Schritte würde die Haut unnatürlich gefaltet und geknickt werden.

5. Und Action: Die Animation

Ist dieses sogenannte Rigging abgeschlossen, muss der künstlichen Welt Leben eingehaucht werden. Die gewünschten Bewegungen müssen nun in ihrem zeitlichen Zusammenhang animiert werden. Bei technischen Objekten richtet sich dies nach timings, die aus Filmvorlagen entnommen werden können (damit sich ein beispielsweiser Roboter nicht unnatürlich schnell oder zum Marketing-Nachteil zu langsam bewegt).

Bei organischen Animationen wird gerne zu Motion Capture Techniken gegriffen: Echte Bewegungen werden dreidimensional erfasst und auf die jeweilige Vorlage übertragen. Theoretisch lässt sich das heute schon mit dem Smartphone erreichen. Je besser/geschmeidiger dies jedoch wirken soll, desto aufwendiger und kostspieliger die Technik dazu. Hochwertige Produktionen setzen daher auf Studios die sich auf diese Technik spezialisiert haben.

Und zu guter Letzt will ja auch die Umgebung animert sein, wenn Sie draussen spielt. Für die Ausgestaltung einer Landschaft gilt dann ein ähnlicher Komplexitätsgrad wie für die grundlegende Animation. Soll ein Bach durch die Landschaft fliessen – oder sich Bäume im Wind bewegen, sind Simulationen angesagt. Hierzu bieten sich unterschiedliche Plugins an, die realitätsnahe physikalische Simulationen beherreschen und damit Details in die 3D-Szene bringen können.

6. Aus 3D-Szene wird Rendering

Am Ende des Prozesses aus Objekterstellung, Materialisierung, Beleuchtung und Animation steht der Renderingprozess. Dabei errechnet die Visualisierungssoftware aus der 3D-Szene das schlussendliche Bild. Sehr vereinfacht dargestellt, werden dabei von den verschiedenen Lichtern einzelne Strahlen ausgesandt, deren Richtung, Abpraller und Verlauf unter den vorherrschenden physikalischen Gegebenheiten berechnet werden.

Dies geschieht auf Basis jedes einzelnen Bildpunktes/Pixels – mit anderen Worten: Je grösser die Auflösung, desto länger dauert diese Berechnung. Und je besser die Gewünschte Qualität, desto mehr Strahlen sind erforderlich – was ebenfalls zu längerer Renderzeit führt.

Reden wir von Film, steigt die Renderzeit nochmals deutlich: Abhängig von der Dauer und der Auflösung des Filmes multipliziert sich die Berechnungszeit. Ein einzelnes 4K-Bild auf einem einzelnen (Hochleistungs-) Rechner kann schnell mal eine oder mehrere Stunden Rechenzeit in Anspruch nehmen – nach oben offen. Bei für Filme mindestens notwendigen 25 Bildern pro Sekunde lässt sich gut erahnen, wie lange ein Kinofilm im Renderingprozess benötigt.

Grössere Produktionen verlagern die Rechenaufgabe dann auf verschiedene Hochleistungsrechner – oder sogar auf dedizierte Renderfarmen, die gleich mit dutzenden oder hunderten Rechnern gleichzeitig ins Feld ziehen. Dies ist jedoch sehr kostspielig, weshalb der technischen Optimierung des Renderings grosse Bedeutung zukommt.

7. Aus Rendering wird Bild und Film

Mit den fertig gerenderten Bildern verhält es sich wiederum sehr ähnlich wie mit Rohmaterial von Shootings: Sie müssen aufbereitet werden, bevor Sie zum Einsatz kommen.

Das heisst: Color-Grading, Retusche und allenfalls Compositing.

Beim Color-Grading werden die rohen Daten mit einem Farblook versehen. Am besten lässt sich das mit dem Umgang mit Raw-Daten aus Digitalkameras vergleichen. Die rohen Daten des Kamerachips werden interpretiert und auf den gewünschten Look eingestellt.

Bei der Retusche werden Unschönheiten und Fehler aus den Renderings ausgebessert. Dies macht vor allem dann Sinn, wenn die Korrektur des Problemes in der 3D-Software ungleich mehr Zeit in Anspruch nähme als in Bild- und Filmbearbeitungsprogrammen.

AWE Schaffhausen: Partner für 3D-Content

AWE Schaffhausen schafft seit 2009 3D-Content zur verständlichen Darstellung von komplexen Themen sowie zur immersiven Vermarktung von Produkten und Dienstleistungen.

Neben klassischen 3D-Visualisierungen und -Illustrationen umfasst das Angebot vor allem Inhalte und Tools im Bereich Augmented Reality und Virtual Reality.

Bei der Erstellung von Objekten und Inhalten für die modernen Technologien setzt AWE dabei auf enge Partnerschaften mit Kunden, die von der Verbindung zwischen Kommunikations- und 3D-Know-How im erweiterten Mass profitieren.

Virtuell
Mehr dazu