Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung IOSB

Automatische Unterstützung der Lageerfassung mit Minidrohnen

Ausgangssituation

Richtige Entscheidungen sind ein Ergebnis treffender, präziser Kenntnis der Lage und korrekter Einschätzung der Handlungsmöglichkeiten. Dies wiegt desto schwerer, je dringlicher die Situation ist auf die es zu reagieren gilt und je weniger eine zweite Chance zu erwarten ist. Ob bei Rettungseinsätzen nach Katastrophen, beim Schutz kritischer Infrastruktur oder im Rahmen eines militärischen Einsatzes unter feindlicher Einwirkung, Lagekenntnis und –orientierung bedeutet vor allem auch die Zuordnung der Informationen im räumlichen Bezug und das bedingungslose Zurechtfinden in der unmittelbaren, relevanten Umgebung.

Vor allem bildhafte Information, wie sie zum Beispiel unsere Augen oder die Aufklärung mit abbildenden Sensoren liefert, findet besonders leicht Zugang in den gedanklichen Prozess der Entscheidungsfindung. Insbesondere für Einsätze in räumlich eng begrenzten Gebieten, wie sie im Objektschutz, bei Rettungseinsätzen oder militärischen Operationen in urbanem Gebiet oft vorkommen, hat sich in der jüngeren Vergangenheit die Minidrohne als ein agiles und vielseitiges Werkzeug zur Lageaufklärung etabliert. Kostengünstig, leicht zu transportieren und zu bedienen sowie anspruchslos in der Wartung stellen heutige Minidrohnensysteme ideale Plattformen dar, um Informationslücken im nächsten Umfeld schnell und flexibel zu schließen.

Bei allen Vorzügen dieser Aufklärungssysteme dürfen jedoch auch die Nachteile nicht unbetrachtet gelassen werden: die miniaturisierten Navigationssysteme sind ungenau und können im Fall von GPS leicht gestört werden oder ganz ausfallen (GPS-Signalausfall bei Abschattungen oder Mehrwegausbreitungen), die leichten Minidrohnen schwanken im Wind, was sich unmittelbar auf die Qualität der Bilddaten auswirkt. Die einfache Bedienung ermöglicht zwar den Einsatz durch weniger spezialisiertes Personal. Dieses kann aber mit der Aufgabe der räumlichen Orientierung in den Bilddaten leicht überfordert werden.

 

Aufgabe

Um es dem Anwender zu ermöglichen, sich ganz auf die eigentliche Aufgabe der Entscheidungsfindung zu konzentrieren, sollen die Daten weitgehend automatisch vorverarbeitet werden. Dafür werden zwei Aufgaben als maßgeblich angesehen: Erstens soll die Herstellung des räumlichen Bezugs der Sensorbilder nicht dem Operateur überlassen, sondern automatisch gelöst werden. Die Lagefeststellung durch den Operateur soll dann direkt in den so aufbereiteten Bilddaten erfolgen. Zweitens soll für Aufklärungsaufgaben, bei denen zweidimensionale Informationen nicht ausreichen, die dritte Dimension durch 3D-Rekonstruktion aus Bildfolgen erschlossen werden. Die Ergebnisse dessen können auch für die Lokalisierung und Navigation der Minidrohne selbst genutzt werden. Für die Untersuchung wurde auf Erfahrungen und Methoden in der Bildverarbeitung und der 3-D-Objektanalyse zurückgegriffen. Zu lösen ist vor allem die Anwendung auf die besondere Situation der Aufklärung mit Minidrohnen, die durch den Einsatz miniaturisierter Sensorik, dem Vorliegen geometrisch ungünstiger Flugpfade sowie der Auswertung prinzipiell unbegrenzt langer Bildfolgen charakterisiert ist.

 

Ergebnis

Die räumliche Orientierung der Sensorbilder erfolgt durch eine schritthaltende implizite Georeferenzierung indem zum Beispiel die Bilder auf ein gegebenes Orthofoto registriert werden. Jedem Bildpunkt wird so prinzipiell mit einer akzeptablen Genauigkeit eine Weltkoordinate zugeordnet. Damit können sowohl die Videobilder in eine Lagekarte eingeblendet werden als auch raumbezogene Kontextinformationen, die aus anderen Quellen stammen oder in einer Datenbank vorhanden sind im Bild automatisch annotiert werden.

Bei der 3D-Rekonstruktion aus Minidrohnenvideos wurde besonderen Wert auf die Sensorselbstkalibrierung gelegt, um die Ansprüche an die Kenntnisse über die innere Sensorgeometrie zu reduzieren. Ferner wurde die Sensorselbstlokalisierung anhand beliebig langer Bildsequenzen ermöglicht, so dass konzeptionell Echtzeitlösungen vorliegen. Die Umgebung wird zunächst in Form von dichten 3-D-Punktwolken rekonstruiert. Diese Zwischenergebnisse können, mit der Farbinformation aus den Bilddaten überlagert dargestellt, schon einen ersten Eindruck der 3-D-Umgebung liefern. Anders als bei konventionellen Ansätzen wird bei der im Post-Processing folgenden Modellierung der 3D-Oberflächen auf explizite Modellannahmen wie Haus- oder Dachformen verzichtet und statt dessen eine Dreiecksvermaschung der Punktwolke und anschließende Oberflächenapproximation mit Hilfe von L1-Splines vorgenommen. Dieses Vorgehen ermöglicht die Beschreibung nahezu jeder Oberflächenform und ist damit im Unterschied zu den klassischen Verfahren auch für die Rekonstruktion beschädigter Infrastruktur geeignet, mit der zum Beispiel nach einem Erdbeben oder einer anderen Katastrophe zu rechnen ist.

 

Lagedarstellung mit überlagertem, georeferenziertem Video

 

Projektdurchführung

Peter Solbrig, Jochen Meidow, Dimitri Bulatov, Peter Wernerus