Du befindest dich hier: FSI Informatik » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 9 » incg_4_ss2015

Prüfer: Prof. Stamminger
Vorbereitung: Ca. 8 Tage durch Lesen der Vorlesungsfolien. Bei einigen Kapiteln Verständnisvertiefung durch Lesen von den zugehörigen Papern bzw. alternativen Foliensätzen o.ä. Für Spherical Harmonics lohnte sich auch das Ansehen der Vorlesungsaufzeichnung zu besserem Verständnis.

P: Haben Sie einen Favoriten, womit sie anfangen möchten?
S: Ich habe da keine wirkliche Präferenz.

P: Gut dann starten wir mit Depth of Field. Erklären Sie doch mal grob, was das ist.
S: Depth of Field erklärt mit Pinhole vs. Linse. Splatting erklärt; Probleme beim einfachen Filtern von Pixeln.
P: Malt Bild von einer Szene auf. Erklären Sie doch mal, was das für Probleme sind.
S: Blur von Fokus-Objekten in Hintergrund; Beheben durch edge preserving filtering. Objekte im Vordegrund werden geblurt und somit müssten eigentlich Hintergrundinformationen sichtbar werden, die wir nicht haben.
P: Damit kommen wir in ein Problem, was sich im weitesten Sinne als Transparenzproblem beschreiben lässt, wie haben wir das denn da gelöst?
S: Depth Peeling erklärt.
P: Wie rendern wir diese Layer dann übereinander?
S: Von hinten nach vorne mit Alpha Blending
P: Es gibt da ja auch noch eine kompliziertere Technik: Per Pixel Linked Lists
S: Per Pixel Linked Lists erklärt.
P: Wie könnte man jetzt DoF mit PPLL implementieren?
Diese Frage ist eine Transferfrage gewesen und kam so ja nicht in der Vorlesung dran. Es geht dabei, meines Erachtens weniger um eine absolut korrekte Lösung mit fertiger Implementierung als vielmehr dass man zeigt, dass man in der Prüfung auch in der Lage ist sich darüber Gedanken zu machen, wie man diese Algorithmen kombinieren könnte und dass man seine Ideen mit Argumenten erklären kann.

P: Das soll es zu Transparenz und DoF mal gewesen sein. Erklären sie doch mal Shadow Maps
S: Shadow Maps erklärt.
P: Jetzt gebe ich ihnen hier ein Punktlicht. Wie bestimmen sie denn die Kameraparameter, damit sie die Shadow Map zeichnen können.
S: Punktlich ist omnidirektional, deshalb brauchen wir mehrere Kamerafrustum.
P: Malt wieder ein Bild einer Szene auf. Jetzt zeigen sie nochmal am Bild, welche Tiefenwerte miteinander verglichen werden.
S: Ein bisschen gemalt und erklärt.
P: Wenn ich jetzt einen Punkt direkt auf dem direkt beleuchteten Mesh hier habe, dann habe ich doch den gleichen Wert in der Shadow Map.
S: Theoretisch ja, praktisch gibt es Floating-Point Ungenauigkeiten und es kann passieren, dass sich die Werte leicht unterscheiden und darauf sollte man beim Schattieren achten.
P: Aber es sind nicht nur Floating-Point Probleme. Wie sieht denn zum Beispiel der Boden (auf dem Bild) in der Shadow Map aus?
S: Er wird stückweise abgetastet und die Segmente sind parallel zur Shadow Map-Ebene. D.h. es können Ungenauigkeiten entstehen, weil der tatsächliche Wert der Oberfläche einfach ein anderer ist als der in der Shadow Map gespeicherte.
P: Jetzt könnte man da ja einfach Interpolieren, dann könnte man diese flache Ebene recht gut hinbekommen. Warum ist Interpolation auf der Shadow Map trotzdem schlecht?
S: Wenn man mehrere verschiedene Objekte hat, dann liefert Interpolieren fehlerhafte Schatten.
P: Wie macht man es dann richtig?
S: Percentage Closer Filtering erklärt.
P: Wie kann man denn Mip Mapping jetzt auf Shadow Maps anwenden.
S: Variance Shadow Maps erklärt.
P: Erklären Sie doch mal ganz grob Convolution Shadow Maps
S: Convolution Shadow Maps erklärt.

P: Okay, das reicht dann auch mit Shadow Maps. Reden wir mal über Environment Maps. Was ist denn das?
S: Vor allem Spherical Environment Maps erklärt und wie man Reflexionen damit darstellen kann.
P: Wie kann man denn möglichst viele Reflexionsrichtungen in so einer Spherical Environment Map speichern? Wenn man jetzt einfach die Kugel auf eine Textur projiziert, dann hat man ja nur die vordere Halbkugel.
S: Im Endeffekt speichert man die Spiegelung einer Szene auf einer Kugel.
P: Wo liegt denn jetzt das Problem von Spherical Environment Maps – bei virtuellen Szenen.
S: Spherische Dreiecke, die man nicht rasterisieren kann ⇒ virtuelle Szenen nicht wirklich in Spherical Environment Map darstellbar.
P: Was nimmt man statt dessen?
S: Cube Maps.

P: Jetzt haben wir Environment Maps nicht nur für Reflexionen berechnet, sondern auch für Beleuchtungsberechnung. Wie geht das denn?
S: Irradiance Map erklärt. „Stark gefilterte“ Version der Environment Map, da Integration über Hemisphäre.
P: Wir könnten jetzt eine Environment Map in eine Irradiance Map tranformieren durch einen riesigen Filter. Das ist aber sehr langsam. Wir hatten da einen sehr eleganten Weg. Wie geht das?
S: Spherical Harmonics erklärt mit Fokus auf Umformung der L-Koeffizienten in E-Koeffzienten mit Hilfe von zusätzlichen Dämpfungskoeffizienten.

Insgesamt eine sehr angenehme und lockere Atmosphäre. Es ist durchaus sinnvoll viel von sich aus zu erklären.