Die Vision: Rekonstruktion der realen Welt als 3D-Modell, um damit in Echtzeit Details beliebiger Skala darzustellen. Die Kernidee des Projekts ist es, interaktiv 3D-Sensordaten von beliebigen Geräten in ein topologisch sauberes Oberflächenmodell zu integrieren. Das von uns entwickelte 3D-Modell wird nahezu stufenlos skalierbar sein und erlaubt damit eine weitgehend artefakt-freie Darstellung am Bildschirm beim Übergang zwischen verschieden Detailsstufen. Die vorgeschlagenen Algorithmen ermöglichen die einfache Digitalisierung komplexer Innenbereiche oder großer urbaner Räume mittels crowdgesourctem 3D-Scannen mit mobilen Endgeräten. Die erfassten 3D-Szenen können dann von der Allgemeinheit sofort verwendet werden, z.B. um sich zu orientieren, in Virtual/Mixed Reality Anwendungen, oder für die Verknüpfung mit vorhandenen semantischen Informationen, z.B. in Gebäudeinformationssysteme oder Datenbanken über städtisches Mobiliar, deren Inventar damit auch ergänzt werden kann. Die bereinigte Oberfläche des 3D-Modells bietet ideale Voraussetzungen für weitere geometrische Verarbeitung, gängige Anwendungsfälle sind autonome Navigation, Lernen und Verstehen von Umgebungen, sowie die Erhebung und Kennzeichnung von Änderungen über die Zeit hinweg. Eine Beispielanwendung ist das Zusammenführen und Verteilen von Scans mehrerer autonomer (Luft-)Fahrzeuge, um Karten zu aktualisieren, sowie garantierte Kollisionserkennung und Routenplanung in Echtzeit durchzuführen.
Principal Investigator:
Institution:
Projekttitel:
Co-Principal Investigator(s):
Michael Wimmer (TU Wien)
Status:
Laufend (01.05.2020 – 30.04.2026)
GrantID:
10.47379/ICT19009
Fördersumme:
€ 578.450
Keywords: Surface Reconstruction, Level of Detail, Denoising, Multi-scale, Topological Guarantees, Geometry Processing
Wissenschaftliche Disziplinen: Computer graphics (70%) | Geometry (30%)