KI-basierte Steuerung heterogener Robotergruppen

Um mehrere heterogene (fliegende, fahrende, schwimmende) mobile Roboter in einer Mission effektiv und effizient einsetzen zu können, müssen viele komplexe Probleme gelöst werden. Vor allem muss die zu lösende Aufgabe »verstanden« werden – d. h. im Bezug zu internen Modellen und Abläufen gebracht werden. Danach muss die Aufgabe i. d. R. analysiert werden, um die geeignetsten Ressourcen (Sensoren, Aktuatoren sowie ihre mobilen Träger etc.) auszuwählen, um eine Lösung der Aufgabe mit der Berücksichtigung vorgegebener Gütekriterien zu ermöglichen. In nächstem Schritt muss die Mission für die Lösung der Aufgabe geplant werden, wobei die für dynamische Szenen gewöhnlichen Faktoren wie Teilwissen, Unsicherheiten sowie Zeitknappheit berücksichtigt werden müssen.

Während der geplanten Missionsdurchführung wird die tatsächliche Situation mit dem Plan laufend verglichen und etwaige Abweichungen analysiert, was z. B. mithilfe einer parallel zur Ausführung ablaufenden Simulation realisiert werden kann. Kleine Abweichungen können oft lokal (z. B. regel- oder verhaltensbasiert) kompensiert werden, größere erfordern oft eine Neuplanung der verbleibenden Mission. Insbesondere in komplexen Situationen müssen auch Menschen in den Workflow eingebunden werden, wofür spezielle Algorithmen und Interfaces zu entwickeln sind.

KI-basierte Systeme, die komplexe Missionen für Gruppen von Robotern effizient planen können, sind wenig erforscht. Eine der schwierigsten Herausforderungen für lernende KI-Systeme, die Lösung dynamischer Aufgaben planen, ist eine sehr beschränkte Anzahl von Lerndaten.

Missionsplanung und Missionssteuerung

Die Missionsplanung für heterogene Gruppen von Robotern schließt die Auswahl der für die Lösung der Aufgabe benötigten Ressourcen sowie die eigentliche Planung der Mission mit ein, wobei beide Schritte i. d. R. iterativ mehrmals wiederholt werden müssen. Zur Planung werden hierarchische Simulationssysteme benötigt, die dank variablem Detaillierungsgrad off- und online einsetzbar sind. Zuerst kann eine Mission grob geplant werden, und erst bei Bedarf (ggf. auch während der Ausführung) werden die Pläne iterativ zusammen mit Umgebungsmodellen bis zum benötigten Grad detailliert. Die benötigte Detailliertheit der Planung hängt vom Intelligenzgrad, den Fähigkeiten der ausführenden Roboter sowie den Gütekriterien ab. Über die genauen Abhängigkeiten ist aber nur wenig bekannt.

Während der Missionsausführung wird einerseits die tatsächliche Umgebung sowie Eigenzustände der Roboter laufend erfasst und darauf basierend Umgebungsmodelle angepasst. Andererseits wird die gegenwärtige Situation mit dem Plan laufend verglichen und Abweichungen analysiert, was i. d. R. mithilfe einer parallel zur Ausführung laufenden Simulation mit dem oben beschriebenen adaptierbaren Umgebungsmodell realisiert wird.

Echtzeitfusion heterogener Daten und Informationen aus mehreren Quellen

Bei gleichzeitigem Einsatz mehrerer mobiler Roboter gibt es naturgemäß viele ergiebige Datenquellen, die heterogen sind und online fusioniert werden sollten. Einerseits braucht man die Echtzeitfusion aller Quellen, um möglichst exakt und zeitnah die Gesamtlage der Gruppe zu erfassen. Andererseits sind die verfügbaren Kommunikationskapazitäten sowie Rechenleistungen oft nicht ausreichend, um alle relevanten Daten rechtzeitig zu übertragen und zu fusionieren, und häufig benötigen einzelne Roboter nur einen bestimmten Teil des Gesamtlagebildes. Daten und Informationen können übrigens auch aus anderen Quellen kommen – inklusive Menschen, falls passende Interfaces vorhanden sind, und haben unterschiedliche Präzision und Vertrauenswürdigkeit.

Umgekehrt ist auch der Mensch am gegenwärtigen Stand der Mission interessiert, und die Lagebeschreibung für Menschen kann sich stark von den Lagebeschreibungen für Roboter unterscheiden. Hierfür erforscht das Fraunhofer IOSB neuartige Vorgehensweisen und Konzepte.

Lernbasierte KI für Missionsmanagement

In komplexen dynamischen Situationen, zu denen auch der Einsatz von Gruppen mobiler Roboter zählt, sind i. d. R. lernende Systeme im Vorteil. Die Hauptschwierigkeit, die bei der Schaffung solcher Systeme überwunden werden muss, ist die geringe Zahl geeigneter Lerndaten. Eine der wenigen Quellen solcher Lerndaten stellt die »Handsteuerung« von Missionen heterogener Gruppen mobiler Roboter dar, wenngleich selbst Experten i. d. R. keine optimale Steuerung komplexer Missionen mit mehreren mobilen Systemen realisieren können. Als eine weitere Quelle von Lerndaten können die regel- oder simulationsbasierte Planung und Steuerung solcher Missionen dienen, wobei die Leistungsfähigkeit solcher Systeme bisher relativ rudimentär ist, und zu Lernzwecken nur »gute« Missionen ausgewählt werden sollten. Um sie auszuwählen, werden neue (auch interaktive) Algorithmen benötigt. Beide Verfahren zur Lerndatenerzeugung können aber nur eine begrenzte Zahl passender Lernbeispiele generieren – nicht zuletzt wegen der Komplexität der Aufgabe, sodass auch Algorithmen für das Lernen komplexer Abläufe aus wenigen Beispielen entwickelt werden müssen.

Hierarchische vernetzte KI-Systeme

Heterogene Gruppen mobiler Roboter können grundsätzlich nach zwei Arten organisiert werden:

  • Mit einer zentralen Instanz, die die Gruppe »dirigiert«, die meiste Intelligenz besitzt sowie komplexe Aufgaben übernimmt,
  • ohne zentrale Instanz – die Gruppenmitglieder kommunizieren miteinander, um komplexere Aufgaben zu lösen.

Größere Gruppen können hierarchisch organisiert werden und aus mehreren (auch dynamischen) Untergruppen bestehen, die auch unterschiedlich organisiert werden können. Zu erforschende Fragen betreffen solche Gebiete wie die Verteilung von Fähigkeiten (samt notwendiger Rechenleistung), dynamische Rollen und Zuständigkeiten, Verhaltensregeln in unterschiedlichen Situationen und die Interaktion mit anderen Robotergruppen sowie mit dem Menschen.

Anwendungsbereiche

Im Anwendungsfällen wie Konvoibegleitung, Rettungseinsätzen, Aufklärung im urbanen Umfeld oder der Innenraumüberwachung dient unsere mobile generische Bodenkontrollstation zur Aufklärung mit mobilen und ortsfesten Sensoren im Verbund (AMFIS). Die Kontrollstation kann ein Sensornetzwerk aus Luft-, Land- und Wasserfahrzeugendaten vereinen.  

Im Katastrophenfall bietet SENEKA den Einsatz- und Rettungskräften ein mobiles Roboter-Sensor-Netzwerk zur Unterstützung im Katastrophenmanagement. Dabei verkürzen dynamisch vernetzbare Sensoren und Roboter z. B. die Suchzeit nach Opfern und Gefahrenquellen.  

Tiefsee-Kartographie durch einen Schwarm autonomer Fahrzeuge: Die Idee des Team ARGGONAUTS, mit dem das Fraunhofer IOSB beim Technologiewettbewerb Shell Ocean Discovery XPRIZE antrat und unter den Top 5 landete: Autonome Katamarane schleppen leichtgewichtige Tauchdrohnen ins Einsatzgebiet, wo diese im Alleingang den Meeresgrund in bis zu 4000 Metern Tiefe kartieren.

Logikbasierte Informationsfusion: Eine fundamentale Aufgabe moderner Informationssysteme ist das korrekte Filtern und Fusionieren von Daten zu Informationen, um Entscheidungsträger*innen – abhängig von ihrer Rolle und Aufgabe – eine korrekte Sicht auf den stets komplexer werdenden Informationsraum zu geben.

Im Verbundprojekt OCEAN2020 wird eine vernetzte martime Überwachungs- und Aufklärungsmission der Zukunft etabliert. Insbesondere bei multinationalen Verteidigungsoperationen auf Ebene der EU oder der NATO ist der Austausch von Überwachungs- und Aufklärungsdaten wesentlich, um rasch handeln zu können.