Bachelor- oder Masterarbeit: Interpretable Convolutional Neural Networks (CNN)

Beschreibung

Die klassischen Ziele beim maschinellen Lernen sind bislang stark auf das Training und die Optimierung (Genauigkeit und Fehlerhäufigkeit) der Verfahren fokussiert. Warum z. B. ein neuronales Netzwerk seine Vorhersagen generiert, wird dagegen in der Regel vernachlässigt. Komplexe gelernte Modelle gelten als »Blackbox« und sind für konkrete Problemstellungen – etwa in dem medizinischen Bereich oder anderen sensiblen Domänen – jedoch meist nicht angemessen, da sie keine Erklärung über das Zustandekommen der erzeugten Ergebnisse geben. Bei der Aufgabenstellung geht es speziell darum Convolutional Neural Networks (CNNs) interpretierbar zu gestalten (https://arxiv.org/pdf/1710.00935.pdf).

Zu diesem Thema vergeben wir unterschiedliche Fragestellungen, die sowohl als Bachelor- oder Masterarbeiten angelegt werden können.

 

Studienrichtung

  • (Wirtschafts-)Informatik, Ingenieurwissenschaften, Mathematik o.ä.
 

Voraussetzungen

  • Großes Interesse für das Gebiet Data Science/ Machine Leaning insb. Deep Learning sowie Interpretierbarkeit
  • Gute Kenntnisse im Bereich Machine Learning/ Deep Learning mit Python (Keras, Tensorflow usw.)
  • Freude am Einbringen eigener Ideen und gute Kommunikationsfähigkeit

 

Wir bieten dir

  • Offenes und kommunikatives Arbeitsklima sowie eine intensive Betreuung
  • Betreuung von Seminar- und Abschlussarbeiten
  • Gelegenheit, deine Kenntnisse und Fähigkeiten im wissenschaftlichen Umfeld einzusetzen
  • Bearbeitung zukunftsweisender Themen im Bereich der Künstlichen Intelligenz (KI)

Bei Interesse sende Sie uns bitte deine Bewerbungsunterlagen (kurzes Anschreiben, tabellarischer Lebenslauf, Notenauszug) in elektronischer Form an Sebastian Robert.