Lokalisierung mobiler Endgeräte durch Fusionierung von mobilen Sensordaten

In vielen Anwendungen ist die genaue Lokalisierung von Personen oder Gegenständen ein entscheidender Faktor. In der heutigen Zeit bieten mobile Plattformen wie Smartphones oder Tablets genug Leistung, Sensoren und Konnektivität, um als mobile Messstation eingesetzt zu werden.

Mithilfe der Lokalisierung mobiler Endgeräte ist es beispielsweise möglich den Träger sicher durch eine fremde Region zu führen oder einem Benutzer ortsbezogene Informationen anzuzeigen.

 

Aufgabe:

Inzwischen haben sich diverse funkgetragene Lokalisierungsmethoden wie beispielsweise die GPS-Ortung als Standard für mobile Plattformen etabliert. An weiteren sensor- oder bildbasierten Ortungsverfahren wird intensiv geforscht.

Nichtsdestotrotz ist die zurzeit erreichbare Genauigkeit und Robustheit für viele Anwendungen nicht ausreichend. So setzt z.B. die GPS-Ortung voraus, dass in dem Gebiet ein GPS-Signal verfügbar ist, was beispielsweise in Innenräumen meist nicht der Fall ist. Eine mögliche Lösung der Funk-Ortung ist die Kombination verschiedener funkbasierter Lokalisierungen (z.B. GPS + W-LAN + Telefon Anbieter).

Die gängigen bildbasierten Lokalisierungsverfahren werten das aktuelle Kamerabild mithilfe einer hinterlegten Bilddatenbank aus. Ein großes Problem der bildbasierten Lokalisierungsverfahren ist neben der vorher zu erfassenden Umgebung die zeitliche Änderung dieser Umgebung. Parkende Autos, als Teil der hinterlegten Bilddatenbank, sind in der Regel bei der Lokalisierung nicht mehr vorhanden.

Darüber hinaus werten aktuelle Verfahren die vorhandenen Daten meist nur einzelnen aus und setzen mehrere Endgeräte nicht in einen gemeinsamen Kontext. 

 

Ziel:

Ziel der Arbeit ist die Fusionierung von Informationen stationärer und mobiler Plattformen innerhalb eines Gebiets, um sowohl die Benutzer als auch Objekte in diesem Gebiet zeitabhängig zu lokalisieren. Eine zentrale Fragestellung stellt neben der absoluten Genauigkeit der Selbst- und Objekt-Lokalisierung auch die erreichbare Präzision (Unsicherheit) unter Bezugnahme der eingesetzten Systemkomponenten (Lage, Anzahl und Art der verwendeten Sensoren) sowie Modellannahmen (System-Modellierung und zugrundeliegende Wahrscheinlichkeitsverteilungen) dar.

Dies kann erreicht werden durch ein verteiltes kooperatives Sensornetzsystem, das flexibel die vorhandenen Informationen mobiler Plattformen innerhalb eines Gebiets mithilfe eines probabilistischen Modells fusioniert und in einen gemeinsamen Kontext setzt. 

Von jedem mobilen Endgerät werden hierbei alle vorhandenen Sensordaten sowie das vorhandene Kamerabild genutzt und miteinander fusioniert. So werden die Endgeräte in einen gemeinsamen Kontext gesetzt, um eine höhere Lokalisierungsgenauigkeit zu erhalten.

Die einzelnen Komponenten des Systems werden flexibel auf verschiedene mobile und stationäre Plattformen verteilt. Dies ermöglicht die optimale Nutzung von Systemressourcen. Des Weiteren wird durch die verteilte Systemarchitektur ermöglicht, dass einzelne Systemkomponenten lageabhängig optional selektiert und kombiniert werden können. Der Informationsaustausch zwischen den einzelnen Komponenten des verteilten Systems wird durch die Verwendung von generischen Schnittstellen gewährleistet.

Visuelle Odometrie-Verfahren werden eingesetzt, um die Bewegung des mobilen Endgerätes mittels Kamerabildern zu schätzen. Zudem wird durch die Nutzung von Wide Baseline Stereo Matching Verfahren versucht, mehrere mobile Endgeräte in eine Relation zueinander zu bringen, wodurch sich die Lokalisierungsgenauigkeit beider Geräte erhöht.

Des Weiteren wird erforscht, inwieweit es möglich ist, durch die Lokalisierung zweier mobiler Endgeräte und der Ausnutzung ihrer Kamerabilder vorhandene Objekte zu lokalisieren.

 

Beteiligte Mitarbeiter:

Dr. rer. nat. Michael Arens

Dr.-Ing. Christoph Bodensteiner

Dipl. Phys. Simon Lemaire