Ausgangslage
Generative KI-Modelle bieten mit ihrer Fähigkeit, täuschend echte Bilder zu erzeugen, vielfältige Chancen, wie etwa für kreative Anwendungen oder medizinische Visualisierungen. Aber auch die Risiken geraten zunehmend in den Blick, insbesondere dann, wenn solche synthetischen Bilder gezielt zur Desinformation eingesetzt werden. Das Projekt RealOrRender zielt darauf, Verfahren zu entwickeln, mit denen sich KI-generierte Bilder zuverlässig und robust von realen Fotos unterscheiden lassen.
Hybrider Ansatz zur Deepfake-Detektion
RealOrRender verfolgt einen hybriden Ansatz: Ein klassisches Deep-Learning-basiertes Klassifikationsverfahren wird mit einer Methode kombiniert, die überprüft, wie gut sich ein Bild mithilfe eines generativen Modells rekonstruieren lässt. Weicht die Rekonstruktion stark vom Original ab, deutet dies auf ein reales Bild hin. Die Kombination beider Ansätze steigert die Erkennungsgenauigkeit signifikant, und das System bleibt verlässlich, selbst wenn generative Modelle weiterentwickelt werden und zunehmend realistischere Ergebnisse produzieren.
Nicht nur klassifizieren, auch erklären
Ein zentrales Anliegen ist die dabei Nachvollziehbarkeit: Das System soll ein Bild nicht einfach als »KI-generiert« klassifizieren, sondern auch erläutern, warum es zu diesem Ergebnis kommt. Dazu kommen verschiedene attributions- und segmentbasierte Explainable-AI-Verfahren zum Einsatz, die sichtbar machen, auf welchen Bildmerkmalen und Regionen die Entscheidung beruht. Evaluationen auf einem umfangreichen, eigens erstellten und breit gefächerten Bilddatensatz zeigen, dass dieser hybride, erklärungsorientierte Ansatz vielen bestehenden Verfahren aus der Forschung deutlich überlegen ist. RealOrRender bietet damit einen wirksamen technologischen Schutz vor Bildfälschungen und schafft eine belastbare Grundlage für einen verantwortungsvollen Umgang mit generativen KI-Inhalten.
Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung IOSB