Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung IOSB

Objekterkennung in Sensornetzen

Objekterkennung in Sensornetzen

Sensornetze

Gruppenbeschreibung

Gegenstand der Arbeiten ist die Erkennung und Übergabe von Objekten in den bildhaften Daten vernetzter, mobiler Sensoren. Die untersuchten Technologien reichen dabei von der ansichtenunabhängigen Objektbeschreibung über die Registrierung von Sensorbildern in dreidimensionale Kontextdaten bis hin zur bandbreitensparenden Übertragung der Objektinformationen.

 


Mitarbeiter

Dr. Christoph Bodensteiner
Claus Anderer
Timo Breuer
Sebastian Bullinger
Nikolas Hesse
Francisco de Asís Molina Martel
Gregor Stachowiak


Projekte 

  • Bildbasierte Objektlokalisierung mittels multi-modaler Bilddatenfusion
    Das Ziel des Projekts ist ein generisches Verfahren zur dreidimensionalen Objektlokalisierung, welches auf im Vorfeld aufgenommene 3D-Daten zurückgreifen kann.
  • Videobasierte Echtzeit-3D-Rekonstruktion
    Es werden Verfahren zur Ableitung von Informationen über die Kameratrajektorie und Struktur der Szene aus Videos untersucht, die sich zur echtzeitfähigen Kartenerstellung, Augmented Reality oder in Verbindung mit autonomen Fahr- und Flugzeugen nutzen lassen.
  • Rekonstruktion bewegter Objekte in Monokularen Videodaten (Englisch)
    Dieses Projekt beschäftigt sich mit der Rekonstruktion der dreidimensionalen Form bewegter Objekte in monokularen Videodaten durch Nutzung semantischer Bildinformationen.
  • Rekonstruktion dreidimensionaler Fahrzeugtrajektorien in Monokularen Videodaten (Englisch)
    Die Bestimmung konsistenter Objekttrajektorien in monokularen Videodaten erfordert zusätzliche Einschränkungen der Bewegung. Geeignete Nebenbedingungen werden im Rahmen dieses Projektes näher analysiert und evaluiert.
  • Lokalisierung mobiler Endgeräte durch Fusionierung von mobilen Sensordaten
    In vielen Anwendungen ist die genaue Lokalisierung von Personen oder Gegenständen ein entscheidender Faktor. In der heutigen Zeit bieten mobile Plattformen wie Smartphones oder Tablets genug Leistung, Sensoren und Konnektivität, um als mobile Messstation eingesetzt zu werden.
  • Visualisierung georeferenzierter Objekte auf mobilen Endgeräten
    Die geeignete Visualisierung von zusätzlichen Informationen im Sichtbereich von Benutzern ist immer noch eine herausfordernde Aufgabe. Ziel des Projekts ist die Entwicklung von flexiblen mobilen Applikationen zur Visualisierung von georeferenzierten Objektdaten auf mobilen Endgeräten.
  • Nutzung von Virtual Reality Verfahren in Kombination mit Kamerasensorik
    Die Darstellung und Nutzung verschiedenster Kamerasensorik in Kombination mit einer Virtual Reality Brille ist das Ziel dieses Projekts. Hierbei werden sowohl Augmented Reality Verfahren als auch die Interaktionsmöglichkeiten der Virtual Reality Brille miteinbezogen.
  • Bildbasierte Ortserkennung
    Bildbasierte Ortserkennung findet anhand des visuellen Inhalts eines Eingabebildes den Ort, an dem dieses Bild aufgenommen wurde. Dieses Verfahren kann z.B. für bildbasierte Navigation, für die Georeferenzierung von Bildern oder zur Schleifenschlussdetektion in VSLAM-Systemen verwendet werden.
  • Technologieträger MODISSA
    Beim Technologieträger MODISSA (engl. Mobile Distributed Situation Awareness) handelt es sich um die IOSB-eigene Realisierung einer Experimentierplattform zur Sensorbewertung und Verfahrensentwicklung im Zusammenhang mit Aufgabenstellungen und Rahmenbedingungen von Fahrzeugschutz und fahrzeugbezogener Sicherheit, auch bei militärischen Anwendungen.

Veröffentlichungen

  • Bullinger, S., Bodensteiner, C., Arens, M.: Monocular 3D Vehicle Trajectory Reconstruction Using Terrain Shape Constraints. ITSC, Maui, USA, 2018.
  • Bullinger, S., Bodensteiner, C., Arens, M., Stiefelhagen, R.: Monocular 3D Vehicle Trajectory Reconstruction Using Terrain Shape Constraints. ECCV, Munich, Germany, 2018.
  • Bullinger, S., Bodensteiner, C., Arens, M.: Instance Flow Based Online Multiple Object Tracking. ICIP, Bejing, China, 2017.
  • Bullinger, S., Bodensteiner, C., Arens, M.: Moving Object Reconstruction in Monocular Video Data Using Boundary Generation. ICPR, Cancún, Mexico, 2016.
  • Bodensteiner, C., Bullinger, S., Arens, M.: Single Frame Based Video Geo-Localisation using Structure Projection. ICCVW, Santiago de Chile, Chile, 2015.
  • Lemaire S., Bodensteiner C., Arens M.: „Mobile device geo-localization and object visualization in sensor networks", In: Proc. of the SPIE, Vol. 9250, 2014.
  • Breuer T., Bodensteiner C., Arens M.: „Low-cost commodity depth sensor comparison and accuracy analysis", In: Proc. of the SPIE, Vol. 9250, 2014.
  • Hesse N., Bodensteiner C., Arens M.: „Performance evaluation of image-based location recognition approaches based on large-scale UAV imagery", In: Proc. of the SPIE, Vol. 9250, 2014.
  • Lemaire S., Bodensteiner C., Arens M.: „High precision object geo-localization and visualization in sensor networks", In: Proc. of the SPIE, Vol. 8899, 2013.
  • Bodensteiner C.: A Situation Awareness and Information Handover System for Small Unit Operations, Trilateral-Workshop (SE-NL-DE) Team Situation Awareness in Small Unit Operations, Stockholm, 2011.
  • Bodensteiner C., Hübner W., Jüngling K., Solbrig P., Arens M.: Monocular Camera Trajectory Optimization using LiDAR Data, Computer Vision in Vehicle Technology (CVVT), ICCV, Barcelona, 2011.
  • Bodensteiner, C., Hebel, M., Arens, M.: Accurate Single Image Multi-Modal Camera Pose Estimation. ECCV – RMLE, Crete, 2010.
  • Bodensteiner, C., Huebner, W., Juengling, K., Mueller, J., Arens, M.: Local Multi-Modal Image Matching Based on Self-Similarity, ICIP, Hongkong, 2010.