thumb

Hollywood-Filme leben von Spezialeffekten und virtuellen Objekten. Für die Film-Nachbearbeitung müssen Kulissen und Umgebungen in dreidimensionale Modelle umgewandelt werden. Forscher der ETH und von «Disney Research Zurich» präsentieren dafür eine neue Technologie.

Damit der Hobbit Frodo in «Herr der Ringe» in fantastischen, virtuellen Welten herumspringen kann, ist in den Hollywood-Studios viel Computerarbeit nötig: Virtuelle Elemente, wie zum Beispiel dramatische Waldlandschaften, müssen in der Postproduktion mit gefilmten Kulissen und Schauspielern kombiniert werden. Um virtuelle und reale Elemente in richtiger Perspektive und Proportion zusammenzubringen, müssen reale Objekte dreidimensional vermessen und in ein digitales Modell umgewandelt werden. Das geschieht herkömmlich mit einem 3D-Laserscanner, was jedoch teuer ist, viel Zeit braucht und für Elemente mit feinen Strukturen, wie Pflanzen und Bäume, schlecht funktioniert. Zudem können solche Scanner nicht gleichzeitig die Farben der gescannten Objekte erfassen. Ein Künstler muss deshalb die Objekte nachträglich manuell am Computer kolorieren.

Das könnte bald vorbei sein: Eine Gruppe von Forschern des «Computer Graphics Lab» der ETH Zürich und «Disney Research Zurich» hat eine neue Methode veröffentlicht, mit der die Anwender aus hochauflösenden Fotografien detaillierte 3D-Modelle berechnen können. Die Forscher um ETH-Informatikprofessor Markus Gross benutzten dazu eine herkömmliche digitale Spiegelreflexkamera mit 21 Megapixeln Auflösung. Während einer horizontalen Kamerafahrt von einem Meter wurden 100 Bilder einer statischen Szene aufgenommen, zum Beispiel eine Backsteinfassade mit einem Baum davor.

Aus diesen Daten können die Forscher mit der neuen Methode für jedes Bild eine sogenannte «Depth map», eine digitale Tiefenkarte, berechnen. Diese gibt für jeden einzelnen Pixel die Distanz der Kamera vom aufgenommenen Gegenstand an. Daraus lässt sich in einem weiteren Schritt per Computer das dreidimensionale Modell der fotografierten Gegenstände, zum Beispiel des Baums vor der Hausfassade, erstellen. Die Kamera wird damit quasi zum 3D-Scanner umfunktioniert. Mit einem grossen Vorteil: Die Farbdaten zu den entsprechenden Objekten werden von der Kamera gleich mitgeliefert. Das aufwändige Kolorieren der finalen Szenen fällt weg. Zugleich sehen die Film-Postproduzenten dank der grossen Anzahl Bilder aus unterschiedlichen Positionen auch hinter die Gegenstände. Verdeckte Stellen, die dem 3D-Scanner entgingen, können so ebenfalls modelliert werden.

Paradigmenwechsel in der Bildverarbeitung

Zwar sei die dreidimensionale Rekonstruktionen von Szenerien,die auf Fotografien basiert, nicht neu, erklärt Changil Kim, der Hauptautor der soeben veröffentlichten Publikation. «Diese war jedoch bislang ineffizient.» Für Bilder mit ein bis zwei Megapixeln hätten die Berechnungen bis zu Stunden dauern können, erzählt der Doktorand. Mit seinem neu entwickeltem Algorithmus dauere derselbe Prozess für ein 21-Megapixel-Bild nun weniger als zehn Minuten. Der Grund für diese Effizienzsteigerung ist ein Paradigmenwechsel bei der Berechnung. Bisher wurden die ursprünglichen Bildinformationen in einem ersten Schritt vereinfacht, damit die limitierten Berechnungsmodelle damit umgehen konnten. Aus einzelnen Pixeln wurden Pixelwolken. Dabei gingen Bildinformationen verloren, was sich am Ende zum Beispiel an der fehlenden Schärfe von Objektkonturen zeigte.

Mit Kims Algorithmus hingegen werden in einem ersten Schritt sämtliche Bildinformationen verarbeitet. Das ist möglich, weil nicht mit Pixelaggregaten gerechnet wird, sondern mit einzelnen, voneinander unabhängigen Pixeln. Mit solch parallelisierten Pixel-für-Pixel-Berechnungen kommen Grafikkarten wesentlich besser zurecht. Die Rekonstruktion der Bilder gelingt schneller, und dies ohne wertvolle Bildinformationen und scharfe Konturen zu verlieren. Die ersten Erfahrungen mit der neuen Rekonstruktionstechnik sind vielversprechend und wurden soeben auf der SIGGRAPH präsentiert, der grössten internationalen Konferenz für Computergrafik in Kalifornien.

Kim ist überzeugt: «Herkömmliche Algorithmen zur Bildrekonstruktion können mit den technologischen Fortschritten beim Film nicht mehr mithalten.» Technologien wie Full HD produzierten heute hochauflösende Bilder, für deren Verarbeitung effizientere Algorithmen nötig seien. Kim und seine Kollegen plädieren deshalb in der aktuellen Publikation für ein Überdenken bisheriger Methoden zur Bildverarbeitung. Davon könnte man in Zukunft nicht nur beim Film profitieren, sondern auch bei der Herstellung von Computerspielen oder bei der Visualisierungen in Architektur, Archäologie und Kunst

Literaturhinweis:
Kim C., Zimmer H., Pritch Y., Sorkine-Hornung A., Gross M.: Scene Reconstruction from High Spatio-Angular Resolution Light Fields. Proceedings of ACM SIGGRAPH (Anaheim, USA, July 21-25, 2013), ACM Transactions on Graphics, vol. 32, no. 4, pp. 73:1-73:12