Fusion von Kamera und LiDAR zur modellbasierten autonomen Navigation

 
Autonome Navigation steht seit Jahrzehnten im Fokus vieler Forschergruppen. Die Erfolge der ersten Arbeiten auf diesem Gebiet erleben Kunden heute täglich in Form moderner Fahrerassistenzsysteme, die dem Menschen die Fahraufgabe erleichtern und ihn dabei unterstützen. Anfang dieses Jahrtausends sorgten zwei Entwicklungen zu einem noch stärkeren Wachstum der Forschergemeinde: Einerseits wurde eine Vielzahl unterschiedlichster Sensoren günstiger und damit verfügbarer. Andererseits erreichte die Rechenleistung moderner Computer ein Niveau, das die Verarbeitung dieser Sensordaten erst ermöglichte.
Motiviert durch die Vielzahl unterschiedlicher Sensoren behandelt die vorliegende Arbeit das Thema Sensorfusion mit dem Ziel eine kollisionsfreie autonome Navigation zu ermöglichen. Betrachtet werden Kameras, Laserscanner und inertiale Navigationssysteme auf Seite der Sensorik und u.a. Optimierungsverfahren, zeitliche Filter und Belegungskarten auf der algorithmischen Seite.
Zunächst stellt die Arbeit ein Framework vor, das die zeitliche Synchronisation der verwendeten Sensoren ermöglicht. Dieses Vorgehen erlaubt eine einfache Referenzierung der verschiedenen Sensormessungen zueinander auf zeitlicher Ebene. Auf der geometrischen Ebene zeigt diese Dissertation zwei Verfahren zur extrinsischen Sensorkalibrierung. Das erste dieser Verfahren legt besonderes Augenmerk auf eine korrekte Behandlung von Sensorcharakteristika, wie Auflösung oder Sichtbereich, um eine schnelle und genaue Kalibrierung zu erreichen. Das zweite Verfahren, ein online Verfahren, bestimmt kontinuierlich die relative Lage zweier Sensoren nur anhand der von beiden Sensoren aufgrund ihrer unterschiedlichen Einbaulagen unterschiedlich
wahrgenommenen Fahrzeugbewegung.
Mit Hilfe der synchronisierten und kalibrierten Sensoren wird dann ein rekursives Verfahren zur dreidimensionalen Beschreibung der Fahrzeugumgebung in Form von 3D-Punkten entwickelt. Das System vereint die Vorteile von Kamera und Laserscanner und stellt zudem für jeden 3D-Punkt die Unsicherheit der Schätzung bereit. Zusätzlich erlaubt die Parametrierung des Verfahrens eine einfache Auslegung zu Gunsten einer höheren Genauigkeit in der Umgebungsdarstellung oder zu Gunsten eines geringeren Rechenbedarfs.
Schließlich findet eine Kombination dieses Verfahrens mit Algorithmen zur Hindernisvermeidung auf Belegungskarten statt. Dadurch entsteht ein System zur autonomen Navigation, dass durch die Fusion von Kamera, Laserscanner und inertialem Navigationssystem je nach Einsatzzweck und verfügbarer Rechenleistung parametrierbar ist. Integriert auf dem Versuchsträger Munich Cognitive Autonomous Robot Car 4th Generation (MuCAR-4) konnte die Funktionalität in realen, straßenähnlichen Szenarien demonstriert werden.

 

Promotionsausschuss:

Vorsitz:  Univ.-Prof. Dr.-Ing. Peter Stütz

1. Gutachter: Univ.-Prof. Dr.-Ing. Hans-Joachim Wünsche

2. Gutachter: Prof. Dr.-Ing. Michael Heizmann (Institut für Industrielle Informationstechnik, KIT)

Tag der Promotionsprüfung:

13.04.2023