Künstliche Intelligenz (KI) kann den Menschen vielfältig unterstützen, etwa bei der Optimierung industrieller Fertigungsabläufe, beim Autofahren oder in der Medizin bei der Auswahl von Therapiemöglichkeiten. Da KI-Lösungen eine immer größere Rolle im Alltag spielen, sind ethische Grundsätze – wie bspw. durch die EU im derzeit verhandelten AI Act beschrieben – wichtige Grundpfeiler für ihre Entwicklung. Nicht zuletzt um diese Grundsätze zu beachten, sind Nachvollziehbarkeit und Transparenz von KI-Modellen wichtig: Sie unterstützen die Entwicklung von KI-Modellen und stärken das Vertrauen in KI-Ergebnisse.
Eine lange Tradition im Bereich KI haben von Natur aus nachvollziehbare White-Box-Modelle wie kleine Entscheidungsbäume oder einfache Bayes‘sche Netze. Durch den einfachen und übersichtlichen Aufbau ermöglichen sie es direkt, die algorithmischen Zusammenhänge zu verstehen.
Seit über zehn Jahren sind Verfahren aus dem Bereich des Maschinellen Lernens, insbesondere des Deep Learnings, in den Fokus gerückt. Diese werden auf großen Datenmengen trainiert und liefern für spezielle Aufgaben KI-Modelle mit hoher Qualität. Solche Modelle sind sehr komplex; wir können ihre Vorgehensweise nicht intuitiv durchdringen. Sie werden daher als Black-Box bezeichnet. Sogenannte Erklärmodelle aus dem Forschungsbereich Explainable Artificial Intelligence (XAI) ermöglichen es, die Vorgänge in der Black-Box besser zu verstehen. Diese können explizit für spezifische KI-Modelle oder allgemein für unterschiedliche KIModelle entwickelt werden. Die Erklärungen werden über das gesamte KI-Modell hinweg oder zu bestimmten Ergebnissen der KI generiert. Durch den Einsatz speziell entwickelter Vorgehensweisen zum User Interface Design und Usability Engineering wird eine optimale Nutzbarkeit gewährleistet.
Das Fraunhofer IOSB beherrscht die Entwicklung von KI-Lösungen und dazugehörigen Erklärmodellen und wendet diese in unterschiedlichen Einsatzgebieten an. Als Partner für den Mittelstand und die Industrie bringen wir diese Erfahrung gerne auch in Ihren Use-Case ein. In diesem visIT geben wir Einblick in konkrete XAI-Anwendungsbeispiele aus den Bereichen Qualitätssicherung und Produktion, sensorgestützte Aufklärung und Überwachung, sowie Medizin. Abschließend stellen wir unsere XAI-Toolbox vor, die es uns ermöglicht, auch für Ihr KI-Verfahren verschiedene Erklärungen zu erzeugen – und damit für zielgerichtete Entwicklung, Vertrauen und Transparenz auch in Ihrer Anwendung zu sorgen.
Wir wünschen viel Freude beim Lesen unserer Ausgabe »Erklärbare KI im Praxiseinsatz«.