Die Studierenden können je nach Interesse in einem der folgenden Teilbereiche forschen und arbeiten:
- Entwicklung des DRL-Agenten zur Steuerung der Fertigungsprozesse unter Berücksichtigung humanzentrierter Faktoren inkl. Benchmark mit herkömmlichen Methoden wie Metaheuristiken, Prioritätsregelverfahren oder ganzzahligen Optimierungsmodellen.
- Entwicklung von Verfahren zur automatischen, datengetriebenen Erzeugung von (diskreten, ereignisorientierten) Materialflusssimulationen auf Basis von Process-Mining-Techniken
- Entwicklung einer anwenderorientierten Analyse-Toolbox zur Interaktion mit dem DRL-Agenten im Kontext moderner Software- und Cloudarchitekturen, komplexer Datenmodelle und Datenpipelines, erweiterten Auswertungsmöglichkeiten (insb. im Bereich „Explainable AI“) und automatischen Hinweisen bzw. Verbesserungsvorschlägen
Bezug zum Thema Data Science
Verfahren des Reinforcement Learning, Process Mining, Metaheuristiken, Prognoseverfahren und Techniken der Explainable AI sind Kernthemen der Data Science und werden auch in den Lehrangeboten des Forschungsmasters behandelt.
Verfügbare Ressourcen
Das Projekt wird gemeinsam mit den Unternehmen Miele und Isringhausen sowie mit dem Fraunhofer Institut in realen Produktionsumgebungen durchgeführt. Über die operativen IT-Systeme der Unternehmen werden erforderliche Stamm- und Bewegungsdaten zur Umsetzung der Verfahren bereitgestellt. Die zu entwickelten Softwaremodule für den Live-Betrieb werden in einer modernen Cloudumgebung (MS Azure) implementiert. Für rechenintensive ML-Trainingsprozesse oder Optimierungsverfahren steht das Data Analytics Cluster des Center for Applied Data Science zur Verfügung.
Projektplan
Neben der Mitarbeit an der Erforschung und Entwicklung der Verfahren sind folgende wissenschaftliche Ausarbeitungen als Prüfungsleistungen vorausgesetzt:
Erstes Semester: Erstellung eines Forschungsexposés zu einem der drei Themenbereiche (siehe Aufgabenstellung).
Zweites Semester: Erstellung eines systematischen Literaturreviews über aktuell bestehende Verfahren und Konzepte auf Basis der im Forschungsexposé definierten Zielsetzung.
Drittes Semester: Erstellung eines Forschungspapers mit ersten Ergebnissen und Erkenntnissen. Dies kann z.B. die Entwicklung eines neuartigen Verfahrens oder Modells sein (konstruktionsorientierte Forschung). Alternativ können bestehende Verfahren für einen neuartigen Anwendungsfall angepasst und empirisch evaluiert werden (Benchmarking). Weiterhin möglich sind Arbeiten, wie Simulationsstudien, Surveys oder Fallsstudien.
Viertes Semester: Masterarbeit und Kolloquium. Hier kann z.B. ein bereits bearbeiteter Aspekt aus dem Projekt oder eine neuaufgetretene Forschungsfrage vertieft werden.
* Es ist ggf. möglich, darüber hinaus als wissenschaftliche Hilfskraft tätig zu werden.
EignungskriterienZwingend:
Optional:
- Erfahrungen in einem oder mehreren der folgenden Bereiche sind von Vorteil:
- Python 3.X Ökosystem inkl. einschlägiger ML-Bibliotheken
- Machine Learning, insb. Reinforcement Learning oder Process Mining
- Operations Research und Metaheuristiken, idealerweise im Kontext von Scheduling-Modellen
- Materialflusssimulation bzw. diskrete ereignisorientierte Prozess-Simulation
- Domänenwissen über Produktionsplanung/-steuerung und der systemischen Unterstützung mittels ERP, MES, APS, MRP usw.
- Data Engineering / Cloud-Entwicklung (Datenbanken, Datenpipelines/ETL, APIs, Web-Frontend usw.)
- Interesse an einer einschlägigen Mitarbeit als wissenschaftliche Hilfskraft
Erwerbbare Kompetenzen
- Einsatz und (Weiter-)Entwicklung von State-of-the-Art Verfahren des Maschinellen Lernens in hochkomplexen Umgebungen.
- Erweiterte Forschungskompetenzen durch die etwaige Publikation von Fachartikeln in einem hochmodernen Forschungsfeld.