Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung IOSB

Interpretable Convolutional Neural Networks (CNN)

Beschreibung

Die klassischen Ziele beim maschinellen Lernen sind bislang stark auf das Training und die Optimierung (Genauigkeit und Fehler-häufigkeit) der Verfahren fokussiert. Warum z.B. ein neuronales Netzwerk seine Vorhersagen generiert, wird dagegen in der Regel vernachlässigt. Komplexe gelernte Modelle gelten als „Blackbox“ und sind für konkrete Problemstellungen – etwa in dem medizinischen Bereich oder anderen sensiblen Domänen – jedoch meist nicht angemessen, da sie keine Erklärung über das Zu-standekommen der erzeugten Ergebnisse geben. Bei der Aufgabenstellung geht es speziell darum Convolutional Neural Net-works (CNNs) interpretierbar zu gestalten (https://arxiv.org/pdf/1710.00935.pdf).


Zu diesem Thema vergeben wir unterschiedliche Fragestellungen, die sowohl als Bachelor- oder Masterarbeiten angelegt werden können.

 

Studienrichtung

  • (Wirtschafts-)Informatik, Ingenieurwissenschaften, Mathematik o.ä.

Voraussetzungen

  • Großes Interesse für das Gebiet Data Science/ Machine Leaning insb. Deep Learning sowie Interpretierbarkeit

  • Gute Kenntnisse im Bereich Machine Learning/ Deep Learning mit Python (Keras, Tensorflow usw.)

  • Freude am Einbringen eigener Ideen und gute Kommunikationsfähigkeit

Wir bieten Ihnen

  • Offenes und kommunikatives Arbeitsklima sowie eine intensive Betreuung

  • Betreuung von Seminar- und Abschlussarbeiten

  • Gelegenheit, Ihre Kenntnisse und Fähigkeiten im wissenschaftlichen Umfeld einzusetzen

  • Bearbeitung zukunftsweisender Themen im Bereich der künstlichen Intelligenz

 Bei Interesse senden Sie uns bitte ihre Bewerbungsunterlagen (kurzes Anschreiben, tabellarischer Lebenslauf, Notenauszug) in elektronischer Form.