Virtuelle Umgebung luftgestützter Bildauswertung

Projektbeschreibung

KonzeptIm Rahmen aktueller Forschungsfragen zur aktiven Umweltwahrnehmung bei unbemannten Luftfahrzeugen spielt der Einsatz von Sensordatenverarbeitung eine immer größer werdende Rolle. Der Einsatz virtueller Sensorbildsimulationen erscheint als vielversprechendes Mittel, um die Entwicklung derartiger Systeme kostengünstig und effizient zu gestalten.

 

 

 

CollageUmfangreiches Bildmaterial zum Training, zum Test und nicht zuletzt zur Qualifizierung von Bildverarbeitungsalgorithmen muss in der Regel durch aufwendige und kostenintensive Flugversuche gewonnen werden. Diese haben zudem den Nachteil, dass sie nur eine geringe szenarische Varianz abdecken. 

Daher soll in diesem Projekt der Ansatz verfolgt werden, für diesen Zweck synthetisch generierte Datensätze zu verwenden, die eine große Vielfalt an atmosphärischen Bedingungen und sensorischen Effekten aufweisen und zudem vergleichsweise einfach in großer Anzahl erzeugt werden können. Zum Einsatz kommen hierbei Simulationstools von PRESAGIS

 

 

Collage_Beispiel_IR_400.jpgIn dem Projekt wird die Leistungsfähigkeit von Bildverarbeitungsroutinen zur Objekterkennung auf  synthetischem Bildmaterial und auf realen Sensordaten im visuellen und langwelligen Infrarot-Bereich unter verschiedenen Umweltbedingungen verglichen und eine Optimierung der Simulationsumgebung angestrebt. 

Bei der Verwendung synthetischer Sensordaten für Training und Test moderner, deep-learning basierter Bildverarbeitungsroutinen kann in vielen Fällen ein Leistungsunterschied im Vergleich zu realen Sensordaten beobachtet werden, der als Reality Gap bezeichnet wird. Ziel in diesem Projekt ist die Untersuchung dieses Leistungsunterschieds für Sensordaten im visuellen und im langwelligen Infrarot-Bereich und die Identifikation der zugrundeliegenden Einflussfaktoren. Diese sollen helfen Gestaltungsrichtlinien für den Einsatz virtueller Simulationsumgebungen abzuleiten.

 Hier kann noch eine Erklärung stehen

 

VBA_Flug.jpg

Zur detaillierten Analyse des Reality Gaps für den Anwendungsfall der UAV (Unmanned Aerial Vehicle) basierten Fahrzeugdetektion wurden auf dem Testfluggelände der Universität der Bundeswehr München mit den institutseigenen Multikoptern reale Sensordaten generiert. Mit Hilfe der aufgezeichneten Position und Blickrichtung konnten in der virtuellen Welt synthetische Duplikate erzeugt werden. Diese gekoppelten realen und synthetischen Bildpaare sollen nun dabei helfen, neue Erkenntnisse darüber zu erhalten, welche Faktoren die Detektionsleistung neuronaler Objektdetektoren beeinflussen können.VBA_Bildpaare.jpg

 

 Laufzeit: 2017 bis 2022
Projektpartner: keine