»KI ersetzt nie einen Menschen«

Mit ihren ganz spezifischen Stärken kann Künstliche Intelligenz Entscheidungen unterstützen

Herr Professor Rauschenbach, Künstliche Intelligenz ist in aller Munde. Trotzdem gibt es große Vorbehalte gegenüber der Technologie, etwa wenn es um Datenschutz oder Arbeitsplätze geht. Welche Bedeutung hat KI für das Fraunhofer IOSB?

Thomas Rauschenbach: Künstliche Intelligenz ist für uns zunächst gar kein so neues Thema. Bereits seit den 90er Jahren setzen wir auf KI, etwa wenn es darum geht, den Strombedarf zehntausender Kunden für Energiehändler vorherzusagen oder bei der Qualitätsprüfung in der Autoproduktion. KI ersetzt in diesen und anderen Kontexten aber nie einen Menschen, sondern wird in unseren Projekten dafür eingesetzt, menschliche Entscheidungen positiv zu unterstützen.   

 

Wo ist KI bereits besser als der Mensch?

Rauschenbach: Das menschliche Gehirn ist extrem gut in der Musterkennung. Sie können etwa ohne große Anstrengungen eine Tasse Kaffee von einem Glas Wasser unterscheiden. Deutlich schwieriger wird es hingegen beim Erkennen von Mustern in so genannten Massendaten, auch als „Big Data“ bezeichnet. Hier ist Künstliche Intelligenz dem Menschen überlegen. Am Fraunhofer IOSB nutzen wir diese Mustererkennung zum Beispiel bei der Auswertung so genannter PMU Daten. Hier werden allein pro Sensor und pro Sekunde 150 Datensätze generiert. Ziel ist es, Fehler im Stromnetz zu erkennen, bevor diese überhaupt auftreten. Gerade bei solchen Anwendungen kann KI ihre Stärken voll ausspielen. Weitere Anwendungen, an denen unsere Forscherinnen und Forscher arbeiten, sind Predictive Maintance im Bereich Industrie 4.0, das automatisierte Erkennen von tätlichen Übergriffen, die Objekterkennung etwa für autonome Unterwasserfahrzeuge – oder allgemeiner ausgedrückt: Die Unterstützung menschlicher Entscheidungen mit Hilfe KI-basierter Assistenzsysteme.   

 

Wo besteht noch Forschungsbedarf? Welche Nachteile hat KI etwa gegenüber klassischen, statistischen Auswerteverfahren?

Rauschenbach: Eine große Herausforderung bei der Verwendung von einigen Deep-Learning-Verfahren besteht darin, dass wir die Ergebnisse der KI nicht eindeutig nachvollziehen können. Bei einem statistischen Vorhersagemodell, beispielsweise der Vergleichstagsmethode, verstehen wir sehr gut, wie das Modell zum Ergebnis gekommen ist. Bei KI-Verfahren gleicht vieles einer Black-Box. Passt das Ergebnis nicht, ist kaum nachzuvollziehen, warum. Deshalb ist „Explainable AI“ (XAI) gerade ein großes Forschungsthema, dem wir uns im Geschäftsfeld auch intensiv widmen. 

 

Prof. Dr.-Ing. habil. Thomas Rauschenbach ist Direktor des Fraunhofer IOSB-AST und hatte 2019/2020 die Funktion des Sprechers des Geschäftsfelds Künstliche Intelligenz und Autonome Systeme inne.

 

Künstliche Intelligenz und Autonome Systeme

Erfahren Sie hier mehr über die Anwendungsfelder und Technologien unseres Geschäftsfelds Künstliche Intelligenz und Autonome Systeme.