Herr Frey, warum ist Erklärbarkeit im Kontext von KI-Methoden so ein großes Thema?
Christian Frey: Während KI-Algorithmen wie Deep Learning Verfahren oft beeindruckend gute Ergebnisse liefern, ist meist kaum nachvollziehbar, wie und warum der Algorithmus zu bestimmten Ergebnissen kommt. In diese Lücke zielt XAI. Der Begriff steht für eine Gruppe von Verfahren, die gewissermaßen Licht in die Black Box bringen und die Entscheidungen von KI-Modellen besser interpretierbar machen sollen. Das ist nicht nur wichtig für die Akzeptanz, damit wir Menschen den Entscheidungen einer KI vertrauen. Es ist auch ein wichtiges Tool für die Entwicklungsphase und den weiteren Lebenszyklus von KI-Komponenten im Rahmen des KI-Engineering, etwa um Fehlerursachen auf die Spur zu kommen.