Kurzbeschreibung
Diese Vorlesung gibt eine Einführung in die grundlegenden Konzepte der bildbasierten Synthese, mit besonderem Schwerpunkt auf Verfahren die für das Tracking in Augmented Reality Systemen zum Einsatz kommen.
Dabei werden verschiedenste Aspekte der Bild- und Videoverarbeitung, wie sie in modernen Bearbeitungstools vorkommen, erarbeitet und selbst implementiert. Es werden Methoden zur Bildaufnahme, Bildverarbeitung und Bildsynthese erarbeitet. Die Teilnehmenden sind in der Lage Augmented Reality Anwendungen zu entwerfen, zu implementieren und zu evaluieren und dadurch eigenständige Beiträge in Forschung und Wirtschaft zu leisten.
4 SWS: Vorlesung 2 SWS; Praktikum / Projekt 2 SWS
Arbeitsaufwand
Gesamtaufwand 180 Stunden, davon
- 36h Vorlesung
- 36h Praktikum / Projekt
- 108h Selbststudium
Angestrebte Lernergebnisse
Nach erfolgreichem Abschluss
- haben die Teilnehmer ihr Wissen und Verständnis im Bereich der bildbasierten Computergrafik erweitert und vertieft, bspw. können Sie
- Filter und Segmentierungsverfahren beschreiben und implementieren
- verschiedene Bild- und Videooperatoren in ihrer Wirkung vergleichen, kombinieren und sinnvoll einsetzen
- mathematische Beschreibungen von Bild- und Videooperatoren verstehen
- Feature Detektoren einsetzen
- Kamerakalibrierungsverfahren erfolgreich einsetzen
- Photogrammetriemethoden zur 3D Rekonstruktion einsetzen
- Augmented Reality Anwendungen entwerfen und entwickeln
- sind die Studierenden somit in der Lage ihr Wissen und Verständnis einzusetzen, um Modelle, Systeme und Prozesse eigener Bild-, Video-, und Computer-Vision Applikationen zu konzipieren, umzusetzen und zu evaluieren.
- haben Sie ihre Fähigkeit vertieft, sich eigenständig in neue Themenbereiche einzuarbeiten und Problemstellungen, Technologien und wissenschaftliche Erkenntnisse im Umfeld der bildbasierten Verfahren zu erkennen und sich in relevante Theorien, Methoden und Techniken, sowohl aus theoretischer als auch aus technischer Sichtweise, einzuarbeiten und das erworbene Wissen effizient in die Lösung aktueller und auch zukünftiger Frage- und Problemstellungen einzubringen und anzuwenden. Dies wird durch eigene Recherche, Vorträge und ein Abschlussprojekt realisiert.
Inhalt
- Filterverfahren: Lineare Filter (Box-, Gauss-, Sinc-), Kantendetektoren (Sobel, Laplace, Canny)
- Feature Detektoren (Harris-Corner Detector, SIFT, SURF, etc.)
- Robustes Feature Matching mittels RANSAC, inkrementelles Tracking
- Kamerakalibrierung (Projektive Geometrie, Kameramodelle) und Tracking Methoden
- Tiefenrekonstruktion und Verdeckung
- Python, C# Programmierung
- Beamergestützte Vorlesung;
- Praktika / Projekt in Kleingruppen, um die erlernten Methoden und Techniken einzuüben und zu vertiefen (Rechnerlabor)
Literatur
- Dieter Schmalstieg, Tobias Höllerer, Augmented Reality: Principles and Practice, Addison-Wesley Professional, 2016
- Reinhard Klette, Concise Computer Vision: An introduction into theory and algorithms, Springer, 2014- Bernd Jähne, Digitale Bildverarbeitung und Bildgewinnung, Springer, 2012
- Christian Demant, Bernd Streicher-Abel, Axel Springhoff, Industrielle Bildverarbeitung: Wie optische Qualitätskontrolle wirklich funktioniert, Springer, 2011
- Reinhard Klette, Andreas Koshan, Karsten Schlüns, Computer Vision, Vieweg 1996
- Richard Hartley and Andrew Zisserman, Multiple View Geometry in Computer Vision, Cambridge 2000
- M. Magnor, Video-based Rendering, AK Peters, 2005
Dies ist ein Teilmodul des Moduls .