»Unsere XAI-Tools bringen Licht in die Black Box«

Explainable Artificial Intelligence (XAI): Wichtiges Tool für KI-Engineering und den planbaren, systematisierten Einsatz von KI in anspruchsvollen Anwendungsfeldern

Herr Frey, warum ist Erklärbarkeit im Kontext von KI-Methoden so ein großes Thema?

Christian Frey: Während KI-Algorithmen wie Deep Learning Verfahren oft beeindruckend gute Ergebnisse liefern, ist meist kaum nachvollziehbar, wie und warum der Algorithmus zu bestimmten Ergebnissen kommt. In diese Lücke zielt XAI. Der Begriff steht für eine Gruppe von Verfahren, die gewissermaßen Licht in die Black Box bringen und die Entscheidungen von KI-Modellen besser interpretierbar machen sollen. Das ist nicht nur wichtig für die Akzeptanz, damit wir Menschen den Entscheidungen einer KI vertrauen. Es ist auch ein wichtiges Tool für die Entwicklungsphase und den weiteren Lebenszyklus von KI-Komponenten im Rahmen des KI-Engineering, etwa um Fehlerursachen auf die Spur zu kommen.

Haben Sie konkrete Beispiele?

Frey: Wir nutzen vielfältige Verfahren, je nachdem ob Erklärungen nur für einen konkreten Fall oder mit allgemeinerer Gültigkeit gewünscht sind, wie viel man über das zugrundeliegende KI-Modell weiß etc. So kann etwa Semantic XAI, auf der Basis von Wissensmodellen, textuelle Begründungen generieren, nach dem Motto: »Dieses Objekt ist sehr wahrscheinlich ein Auto, weil im Bild zwei Räder, Schweinwerfer, Außenspiegel und Nummernschild erkannt wurden.« Oder bei der KI-gestützten Routenplanung für autonome Systeme visualisieren XAI-Verfahren die Entscheidungsgrundlagen für den optimalen Weg eines Robotersystems durch unbekanntes Gelände in anschaulicher und für den Menschen verständlicher Weise.

Was ist das konkrete Leistungsangebot des IOSB in diesem Bereich?

Frey: Im Rahmen eines internen Forschungs- und Entwicklungsprogramms bauen wir seit über zwei Jahren gezielt XAI-Kompetenz auf – eingebettet in unser breites anwendungsorientiertes KI-Know-how in Bereichen von industrieller Produktion über Automotive und Medizin bis zum Energiesektor. Entstanden ist unter anderem eine XAI-Toolbox, die unmittelbar zur Datenanalyse, zum Debugging und zur Erklärung der Vorhersage beliebiger Black-Box-Modelle eingesetzt werden kann. Damit können wir fast jedes KI-Anwendungsprojekt unterstützen und einen wichtigen Beitrag dazu leisten, dass nicht nur nette Proof-of-Principle-Demonstratoren entstehen, sondern robuste, praxistaugliche und akzeptierte Produktivlösungen.

 

Dipl.-Ing. Christian Frey ist Specher des Geschäftsfelds Künstliche Intelligenz und Autonome Systeme und Leiter der Abteilung Mess-, Regelungs- und Diagnosesysteme (MRD).

Jahresbericht »We make AI fly«

Das obenstehende Interview ist dem Jahresbericht 2021/2022 entnommen, der schwerpunktmäßig die KI-Anwendungskompetenz des Fraunhofer IOSB beleuchtet.

 

Künstliche Intelligenz und Autonome Systeme

Erfahren Sie hier mehr über die Anwendungsfelder und Technologien unseres Geschäftsfelds Künstliche Intelligenz und Autonome Systeme.