Erklärbare und transparente KI

KI-Verfahren, inbesondere Verfahren aus dem Bereich des Deep Learnings, liefern in vielen Anwendungsbereichen hervorragende Ergebnisse und werden vielseitig eingesetzt. Sie bringen jedoch den Nachteil mit sich, dass die Ergebnisse der Verfahren oft für den Anwender nicht nachvollziehbar sind. Erklärbare und transparente KI (abgekürzt oft XAI) bezeichnen eine Gruppe von Verfahren, deren Ziel es ist die Entscheidungen und Ergebnisse von KI-Modellen für den Anwender besser interpretierbar bzw. nachvollziehbar zu machen. Eine Erklärung kann bspw. daraus bestehen, dass  diejenigen Elemente der Eingabedaten markiert werden, die den größten Einfluss auf das Ergebnis eines konkreten KI-Modells hatten.

Eine nachvollziehbare Entscheidungsfindung erhöht das Vertrauen der Anwender in die KI-Verfahren und ermöglicht eine verbesserte Analyse von Fehlerfällen. XAI ermöglicht einen klareren Einblick in KI-Modelle vom Anwender, der Entscheidungen nachvollziehen will, über den Entwickler, der KI-Modelle in seine Anwendung einbettet und diese parametrisieren will, bis hin zum Wissenschaftler, der die KI-Modelle entwickelt und verbessern will.

Das Querschnittsthema XAI wird am Fraunhofer IOSB über eine große Bandbreite von KI-Anwendungen hinweg weiterentwickelt.

 

Objektdetektion und -klassifikation  

Die Detektion und Klassifikation von Objekten in Videomassendaten bilden oft den ersten Schritt in einer Vielfalt von KI-unterstützten Anwendungen. In vielen Fällen werden interaktive Abläufe mit Auswertepersonal umgesetzt, für das die Nachvollziehbarkeit der Ergebnisse von KI-Verfahren einen signifikanten Mehrwert darstellt. Die Erklärbarkeit von Detektions- und Klassifikationsentscheidungen wird aktuell am Thema der feingranularen Klassifikation von Fahrzeugen entwickelt.

Wissensbasierte XAI  

Semantische Wissensmodelle können genutzt werden, um die mittels maschineller Lernverfahren generierten Ergebnisse einer Plausibilitätsprüfung zu unterziehen und sie in einer für den Menschen verständlichen (z.B. natürlichsprachigen) Weise zu begründen. Aktuelle Anwendungen am IOSB sind KI-basierte Assistenzsysteme für Klassifikationsaufgaben.

 

Semantische Segmentierung

Die semantische Segmentierung von Bilddaten bezeichnet die pixel- bzw. punktweise Klassifikation von zwei- und dreidimensionalen Daten. In der Off-Road Robotik beeinflusst diese Klassifikation maßgeblich die Entscheidung, ob ein potentieller Pfad als befahrbar klassifiziert wird.  Beim Einsatz von KI-Verfahren zur Erkennung und Vermeidung von Hindernissen  ist somit die Nachvollziehbarkeit der Klassifikationsentscheidungen von größter Relevanz.

 

Trajektorienklassifikation  

Für die Kontrolle und Überwachung des Schiffsverkehrs werden am IOSB verschiedene Methoden im Bereich der Situationserkennung und Anomaliedetektion entwickelt. Eine Möglichkeit den Menschen in dieser Aufgabe zu unterstützen ist die KI-basierte Schiffstypklassifikation anhand der gefahrenen Route sowie zusätzlicher Merkmale, z. B. geographischer Eigenschaften. Um sicherzustellen, dass diese Modelle sinnvolle Ergebnisse liefern, werden XAI Methoden verwendet, um transparente Vorhersagemodelle zu erstellen.

 

Verlustvorhersage  

Betreiber von Stromnetzen speisen zum Ausgleich von Netzverlusten Strom in das Netz ein. Um diesen Strom effizient und kostengünstig zu beschaffen, werden präzise Vorhersagen der Netzverluste benötigt. Diese Vorhersage kann mittels KI-Verfahren erfolgen und die Nachvollziehbarkeit der Vorhersagen stellt einen signifikante Mehrwert für die Netzbetreiber dar.

 

Qualitätssicherung  

Fertigungsprozesse wie der Kunststoffspritzgießprozess sind durch eine Fülle freier Parameter gekennzeichnet. Diese werden in der Praxis von erfahrenem Personal sorgfältig eingestellt, um die Produktqualität sicherzustellen. Um den unterstützenden Prozess der KI-basierten Qualitätseinschätzung transparenter und wiederholbar zu gestalten, wird am IOSB ein Assistenzsystem auf Basis von XAI entwickelt.