Du befindest dich hier: FSI Informatik » Prüfungsfragen und Altklausuren » Hauptstudiumsprüfungen » Lehrstuhl 5 » pr-2019-04-09-2

Erstmal: der Herr Nöth war sehr nett, wirklich ein sehr angenehmer Prüfer. Ich war mega nervös, aber das hat er mir nicht zum Nachteil gemacht. Also muss man keine übertriebene Angst vor der Prüfung haben - so wie ich :D

Einstiegsfrage: Warum hat man manchmal überlappende Feature Classes, also insbesondere warum kann es manchmal vorkommen dass man zwei features mit identischen Werten aber unterschiedlichen classen hat → falsches labeling, noise, zu wenig dimensionen

Gefragt hat er mich vor allem zum Thema SVM, SVR. Ich musste in diesem zusammenhang Formeln hinschreiben, insbesondere jeweils das Primal und Dual Optimierungsproblem, aber auch wie sich alpha berechnet und welche Feature Vectoren mit eingehen in die Berechnung (nach auflösen der Ableitung). Er wollte genau wissen, wo welche von den Lagrange Multipliern 0 sind oder wo sie größer 0 sind, und ging da echt unangenehm ins Detail. Wollte Hinge-Loss wissen. Also hinmalen und erklären. KKT-Konditions (insbesondere c. slackness), was man daraus ableiten kann Ich musste viel aufmalen und graphisch erklären, also für mich hätte es sich durchaus gelohnt sicherer mit dem Thema (v.a SVR) zu sein.

Er wollte wissen, was der Kernel Trick ist und wieso man das macht. Insbesondere dass man den Transform nicht direkt berechnen muss sondern diese Kernel Matrix hat, die man zum Teil vorberechnen kann und dann auch durch andere Kernels ersetzen kann. In dem Kontext kam dann noch eine Frage wie man eine quadratische Decision Boundary x^TAx - a^Tx + a_0 linear machen kann → in einen x^6 space transformieren mit (x1, x2, x1x2, x1^2, x2^2, 1)

Normalerweise wären wohl noch mehr Fragen gekommen, aber ich hab oft mal länger gebraucht und hab überlegen müssen, deswegen ist es bei diesen Hauptthemen geblieben.

Ein paar allgemeine Tipps: Empfehlen kann ich tatsächlich sich nicht zu lange mit Details aufzuhalten die nicht mit den Hauptthemen (SVM, SVR, Bayes, GMM, Boosting, (siehe alt klausuren) zusammen hängen. Manche Foliensätze machen extrem Angst schon nach dem ersten paar Seiten, aber das sind üblicher weise nicht die wirklich relevanten. Wichtig ist, dass ihr ein gewisses Grundverständnis habt wie Dinge funktionieren (also behaltet das big picture im Auge). Wenn ihr wenig Zeit habt lasst alles weg was nicht in den Altklausuren vorkommt. Es gibt da einige sehr gute Zusammenfassungen ganzen unten auf der vorhergehenden Seite, die haben mir persönlich sehr geholgen und die teilweise sparsen Folien gut erklärt. Die Videos vom Herrn Honegger sind wenn Zeit ist sehr zu empfehlen.

Ich wünsche allen die nach mir unter dem PR-Lerndruck leiden müssen viel Erfolg bei ihrer Prüfung! Ihr schafft das schon :D