Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung IOSB

Zukünftige Sensorik

Bereits heute werden polizeiliche Einsatzkräfte von verschiedenen bildgebenden Sensor-Systemen bei ihren jeweiligen Aufgaben unterstützt. Beispielsweise lassen sich durch gewöhnliche Videokameras, die im visuellen Spektralbereich arbeiten, Aufnahmen zur Sicherung von Beweismitteln oder zur Dokumentation des Geschehens machen. Auch helfen Nachtsichtgeräte oder Wärmebild-Kameras in Situationen mit geringem oder gar keinem Licht bei der Aufklärung und beim Auffinden von vermissten oder versteckten Personen. Durch die stetige Weiterentwicklung der entsprechenden Detektortechnologien und die damit verbundene Miniaturisierung der Kamera-Systeme ist inzwischen ein Stand erreicht, der sogar deren luftgestützten Einsatz an Bord von Drohnen erlaubt. Am Fraunhofer IOSB werden darüber hinaus neueste Technologien untersucht und bezüglich deren Anwendung in zukünftiger Sensorik konzipiert und bewertet.

Am Markt sind bildgebende Sensoren mit stetig wachsender Anzahl an Detektorelementen erhältlich, die eine hohe Empfindlichkeit in nahezu jedem Spektralbereich haben, der aufgrund der Durchlässigkeit der Atmosphäre infrage kommt: 0,4-0,7 µm (Visuelles); 0,7-1 µm (Nahes Infrarot, NIR); 1-3 µm (Kurzwelliges Infrarot, SWIR); 3-5 µm (Mittleres Infrarot, MWIR); 8-12 µm (Langwelliges Infrarot, LWIR). Auch multispektrale Kameras, die zwei (Dual-Band) oder mehrere (Multi-Band) dieser Spektralbereiche oder zwei Teilbereiche eines Bandes (Dual-Color) gleichzeitig abdecken, sind verfügbar. Die Bildfusion der zeit- und pixelgleichen Bilder dieser Kameras können Informationen deutlicher herausstellen, die in den Einzelbildern nur schwer zu erkennen sind (vgl. Abbildung 1).

Abb. 1:     Aufnahmen eines parkenden Fahrzeugs mit einer IR-Dual-Band-Kamera (Links: MWIR, Mitte: LWIR). Rechts: Bildfusion der beiden Bänder, wodurch ein Schriftzug auf der Heckscheibe herausgestellt wird. © Fraunhofer IOSB

Hyperspektralkameras liefern spektral aufgelöste Informationen der abgebildeten Szene, die z.B. zur Erkennung von Sprengstoffen oder Detektion von Gas-Lecks herangezogen werden können.

Neben diesen passiven Sensor-Systemen, welche künstliche und natürliche Lichtquellen (VIS, NIR, SWIR) sowie die Emission von Objekten (MWIR, LWIR) nutzen, gibt es auch aktive Sensoren, die zusätzlich zum (passiven) Detektor eine eigene (aktive) Beleuchtungseinheit (LED, Laser) haben. Diese aktiven Sensoren arbeiten im VIS-, NIR- oder SWIR-Bereich, wobei der Bereich über 1,4 µm (meist bei 1,57 µm) aufgrund der höheren erlaubten Beleuchtungsintensität (höhere „Augensicherheit“) bevorzugt wird. Wird kein Dauerstrichlaser, sondern eine gepulste Laserquelle (ähnlich dem Blitzlicht einer Fotokamera) verwendet, kann durch die Verwendung einer schnellen, triggerbaren Kamera das sog. „Gated-Viewing“ (GV) Verfahren umgesetzt werden. Dabei wird die Tatsache ausgenutzt, dass aufgrund der endlichen Lichtgeschwindigkeit die Laserphotonen, die an Objekten in unterschiedlichen Entfernungen in der Szene zurückgestreut werden, zu entsprechend unterschiedlichen Zeitpunkten am Detektor ankommen. Durch eine exakte Steuerung der Integrationszeit der GV-Kamera können somit selektiv nur die Laserphotonen erfasst werden, die aus der gewünschten Entfernung stammen. Der Vorder- und Hintergrund wird dadurch ausgeblendet. Ein mögliches Anwendungsszenario liegt in Situationen vor, in denen die Sicht auf ein bestimmtes Objekt oder Personen beispielsweise durch leichten Rauch oder grelles Licht behindert ist.

Ein solches Szenario ist in Abbildung 2 beispielhaft zu sehen. Anhand der gezeigten Bilder sind deutlich die Vor- und Nachteile der verschiedenen Sensoren zu erkennen: Sichtbehinderung durch Rauch und Feuer im Visuellen, sehr gute Rauchdurchdringung aber starke Überstrahlung aufgrund der heißen Flamme im MWIR, gute Rauchdurchdringung und vollständige Unterdrückung des Feuers aufgrund zeitlicher und spektraler Filterung im Gated-Viewing-Bild mit kurzem Gate (längeres Gate zur besseren Umgebungsübersicht auch möglich).

 

Abb. 2:     Zeitgleiche Aufnahmen einer Szene mit Rauch und Feuer durch eine abbrennende Rauchfackel. Links: gewöhnliche Aufnahme im visuellen Spektralbereich. Mitte: MWIR-Bild. Rechts: Gated-Viewing-Bild, welches deutlich eine dritte Person in der Szene zeigt. © Fraunhofer IOSB

Zur Unterstützung bei der Drohnenaufklärung auf große Entfernung ist der Einsatz eines sog. Laser-Vibrometers auf einer Nachführplattform denkbar, bei dem ein Laser die Oberflächen-Vibrationen des unbekannten Flugobjekts ermittelt (vgl. Abbildung 3). Weist das resultierende Frequenzspektrum charakteristische Merkmale (bestimmte Frequenz-Peaks) auf, kann durch den Vergleich mit einer zuvor erstellten Datenbank die Identifikation der Drohne erfolgen. Die automatische Detektion kann beispielsweise akustisch mittels eines Mikrofonarrays und die automatische Nachführung des Laserstrahls (Tracking) optisch mittels einer Kamera (z.B. GV zur Kontrasterhöhung durch Ausblenden des Hintergrundes) realisiert werden.

Abb. 3:     Einsatz eines Laser-Vibrometers zur Unterstützung bei der Drohnenaufklärung. © Fraunhofer IOSB

Ebenfalls ein großes Potenzial zur Einsatz-Unterstützung bei der Lageplanung haben aktive Sensoren, die (scannend oder starrend) 3D-Informationen der betrachteten Szene liefern. Durch 3D-Information von Objekten kann ein deutlich genaueres Lagebild erhalten werden und eine eindeutige Klassifikation ist häufig erst so möglich.

Zusammenfassend muss gesagt werden, dass neueste Technologien ein großes Potenzial für den Einsatz in zukünftiger Sensorik bieten und deshalb auch weiterhin am Fraunhofer IOSB hinsichtlich ihrer Anwendungsmöglichkeiten untersucht und bewertet werden. Insbesondere werden auch intelligente Bildverarbeitungsalgorithmen zur automatischen Bildaufbereitung und -Darstellung für den Bediener entwickelt.