Autonomes Fahren: Mobilität der Zukunft
Autonome Fahrzeuge steuern sich selbst. In der höchsten Automatisierungsstufe ist ein menschliches Eingreifen überhaupt nicht mehr nötig. Bis dahin werden sukzessiv Fahraufgaben durch automatische Assistenzfunktion abgelöst. Fahrende werden entlastet, bis sie schließlich selbst zum Beifahrenden werden. Dieser Vision gehen OEMs und Zulieferer in großen Schritten entgegen. Und die zunehmenden Automatisierungsfunktionen in heutigen PKW-Generationen deuten darauf hin, dass das Ziel »autonomes Fahren« in absehbarer Zukunft erreicht werden kann.
Entwicklungspartner für innovative Assistenten und Dienste
Für die Entwicklung neuartiger Assistenzsysteme und innovativer Mensch-Maschine-Schnittstellen bedarf es kompetenten Wissens und der nötigen Infrastruktur, um Ideen schnell umsetzen und testen zu können. Gerade für kleine und mittelständische Unternehmen bedeutet das, dass sie schnell entsprechendes Know-how benötigen, um die nötige Innovationskraft im Forschungsumfeld des autonomen Fahrens aufbringen zu können, um Konzepte entwickeln, diese prototypisch umsetzen und direkt mit Kunden testen zu können.
An dieser Stelle hilft das Fraunhofer IOSB als erfahrener Partner. Im Integrated Autonomous Driving Lab können wir neuartige Bedienkonzepte und Assistenzsysteme gemeinsam mit dem Partnerunternehmen sowohl von Grund auf konzipieren und umsetzen als auch mit Endnutzern erproben und validieren. Das Partnerunternehmen bringt sich gestalterisch aktiv in den Entwicklungsprozess ein, während wir die Kompetenz in der Umsetzung, inklusive der notwendigen Labor-, Simulations- und Testumgebung bereitstellen und als Berater, Wissenschaftler und Entwickler fungieren.
Forschungsschwerpunkte
- Innovative und intuitive Assistenz- und Diensteangebote im Forschungskontext autonomen Fahrens.
- Kamerabasierte Erfassung von Personen im Fahrzeuginnen- und Außenraum (Gesichtsidentifikation, Alters- und Geschlechtserkennung, Blick- und Kopfdrehung, Körperhaltung, Hand- und Zeigegesten.
- Kamerabasierte Erfassung und Identifikation von Objekten im Fahrzeuginnen- und Außenraum.
- Interaktionserkennung der Insassen mit Innenraumobjekten (z.B. Blendschutz, Handschuhfach usw.)
- Aktivitätserkennung der Insassen hinsichtlich einer Vielzahl verschiedener kurzer und längerer Nebentätigkeiten (z.B. Trinken, Essen, Schlafen, Lesen, Arbeiten usw.). Hier finden Sie weitere Informationen zu unserem State of the Art-Datensatz zur Aktivitätserkennung.
- Integration von Spracherkennungssystemen (Speech to Text) wie Alexa, Mozilla Deepspeech, Houndify usw. zur Gestaltung einer sprachbasierten Mensch-Maschine-Interaktion oder Dialogerkennung zwischen den Nutzern.
- Gestaltung und Umsetzung multimodaler Nutzerschnittstellen, z. B. Bedienkonzepte mittels Zeigegesten oder Spracherkennung, eine Steuerung durch Blickmessung oder Personalisierungen und Verifikationen durch Gesichtsidentifikation.
- Einsatz von Augmented Reality oder Virtual Reality.