Index

Prototyp einer self-managed Multi-Cluster-Architektur für die Edge (BA/PA/MA)

Der Einsatz von Edge Computing gewinnt in vielen Bereichen an Bedeutung, da er die Datenverarbeitung näher an den Ort der Datenentstehung verlagert und damit Latenzen, Bandbreitenbedarf sowie Abhängigkeiten von Cloud-Verbindungen reduziert. Gleichzeitig steigen die Anforderungen an Automatisierung, Lifecycle Management und Fleet Operations, weil Edge-Knoten oft heterogen sind, in instabilen Netzen laufen und nur eingeschränkt an verteilten Ort gewartet werden können.

Ziel dieser studentischen Arbeit ist der Aufbau und die prototypische Evaluation einer self-managed Edge-Kubernetes-Referenzarchitektur (hub-and-spoke), die zunächst virtuelle Edge Devices (VMs auf Proxmox VE und/oder OpenStack) nutzt und später auf dedizierte Hardware übertragbar ist. Im Fokus steht eine reproduzierbare Day-0 Provisioning Pipeline via (i)PXE boot sowie first-boot configuration mit cloud-init und Ignition/Combustion (optional unter Nutzung von Matchbox). Darauf aufbauend sollen mehrere Linux- und Kubernetes-Cluster-Varianten automatisiert gestartet und zentral mit GitOps sowie Fleet-style Multi-Cluster Rollout verwaltet werden.

(Mögliche) Schwerpunkte der Arbeit:

  • Design & Implementierung einer hub-and-spoke Referenzarchitektur für self-managed Edge Kubernetes (Management Cluster + Edge Spokes).
  • Provisioning Pipeline: Klassisches (i)PXE, darauf aufbauendes Netboot mittels HTTPBoot via UEFI or U-Boot oder je nach BMC auch IPMI/Redfish, Profilverwaltung (optional Matchbox) und Konfiguration via Ignition/Combustion/cloud-init. Parallel dazu Lifecycle Management mittels Cluster API und entsprechendem Provider (z.B. CAPM3 (Metal³ im Falle OpenStack Ironic) oder CAPT (Tinkerbell im Falle von einfachem iPXE/Netboot))
  • Definition von stabilen Cluster-Profilen (z.B. Talos Linux, openSUSE Leap Micro + k3s, Ubuntu + MicroK8s oder Debian + k0s) inkl. automatisiertem Bootstrap und Re-Provisioning (replaceable nodes).
  • GitOps-gestützte Baseline: Standardisierte Installation von Add-ons (z. B. Longhorn, Ingress, Observability) über Argo CD oder Flux.
  • Persistence & Registry Integration: Longhorn als persistence storage, Deployment-Pipeline über GitLab CI/CD, GitLab Container Registry, Harbor als Proxy Cache und Replication Bridge / Pull-Through Cache (ggf. zunächst lediglich GitLab Dependency Proxy für Docker Hub) und optional K3s Spegel.
  • Dokumentation & Demonstrator: Nachvollziehbare Architektur-/Betriebsdokumentation, IaC/Automation in einem Git-Repository sowie eine Demo-Umgebung als Testbed für Forschung/Lehre.

Ausblick auf darauf aubauende Arbeiten:

  • Erweiterung des Lifecycle Managements um Foreman und Katello.
  • Fleet-style Multi-Cluster Rollout: Vergleich und Bewertung von Rancher Fleet, Argo CD ApplicationSet und Flux (optional Open Cluster Management (OCM) / Karmada) anhand definierter Kriterien (Drift, Skalierbarkeit, Multi-tenancy, Offline-Toleranz, Usability usw.).
  • Integration und Reifegradbewertung von KubeEdge/OpenYurt oder LF Edge Komponenten (FIDO Device Onboard, EVE-OS, EdgeX Foundry) im Rahmen der bestehenden Architektur.

Wenn die ausgeschriebene Arbeit noch online ist, dann ist sie auch noch aktuell. Sollten Sie Interesse an der Arbeit haben, so kommen Sie bitte mittels einer E-Mail (in der Sie kurz Ihr Vorwissen darstellen) auf mich zu. Sollten Sie eine intrinsische Motivation für ein angrenzendes oder ähnlichen Thema haben, so stellen Sie in Ihrer Anfrage bitte den Bezug zu meiner Ausschreibung dar.

Bitte stellen Sie die komplette Anfrage in deutscher Sprache, auch wenn Sie die Ausarbeitung in Englisch verfassen werden. Hintergrund ist, dass Sie sich in laufende Forschungsprojekte einbringen mit den Unternehmen austauschen können sollen und von diesen wird mehrheitlich eine Kommunikation auf Deutsch gewünscht.

Weitere Informationen erhalten Sie auf Anfrage, der Arbeitsumfang kann entsprechend der Arbeit angepasst werden und die Bearbeitung weitestgehend im Home-Office stattfinden.

Realisierung eines Mixed-SBC-Clusters für die Edge (BA/PA/MA)

Der Einsatz von Edge Computing gewinnt in vielen Bereichen an Bedeutung, da er die Datenverarbeitung näher an den Ort der Datenentstehung verlagert und damit Latenzen, Bandbreitenbedarf sowie Abhängigkeiten von Cloud-Verbindungen reduziert. Ein Mixed-SBC-Cluster, der verschiedene Single Board Computer (SBC) wie Nvidia Jetson, Raspberry Pi und verschiedene Hardwareerweiterungen umfasst, bietet eine ausgezeichnete Plattform, um die Herausforderungen und Möglichkeiten des Edge Computings zu erproben und zu demonstrieren.

Ziel ist die Entwicklung eines Mixed-SBC-Clusters für die Edge, der als experimentelle Plattform in industrienaher Forschung und für Lehrzwecke im Automatisierungsumfeld dient. Dieser Cluster soll die Heterogenität realer OT-Infrastrukturen bedienen und das Sammeln praktischer Erfahrungen mit Cluster-Management, verteilten Speichersystemen und der Integration von Erweiterungsmodulen (z.B. Funkmodul, Neural Processing Unit und Field Programmable Gate Array) eröffnen.

(Mögliche) Schwerpunkte der Arbeit:

  • Aufbau und Konfiguration eines heterogenen SBC-Clusters für Edge Computing Szenarien.
  • Einsatz eines Cluster-Management-Systems und Implementierung eines Service Mesh.
  • Einsatz von Automatisierungswerkzeugen und Infrastruktur-as-Code (IaC) zur effizienten Verwaltung und Konfiguration.
  • Implementierung eines Lifecycle-Managements des Betriebs bestehend aus Monitoring, Sicherung, Wartung und Aktualisierung.
  • Integration von Storage-Lösungen und spezifischen Erweiterungsmodulen für verschiedene Anwendungsfälle.
  • Integration in Anwendungsfälle der Automatisierungstechnik in industriellen Produktionsanlagen, der Gebäudeautomatisierung und insbesondere des Energiemanagements.
  • Beitrag zum Transfer in die Lehre als Praktikumsversuch oder Übungseinheit

Wenn die ausgeschriebene Arbeit noch online ist, dann ist sie auch noch aktuell. Sollten Sie Interesse an der Arbeit haben, so kommen Sie bitte mittels einer E-Mail (in der Sie kurz Ihr Vorwissen darstellen) auf mich zu. Sollten Sie eine intrinsische Motivation für ein angrenzendes oder ähnlichen Thema haben, so stellen Sie in Ihrer Anfrage bitte den Bezug zu meiner Ausschreibung dar.

Bitte stellen Sie die komplette Anfrage in deutscher Sprache, auch wenn Sie die Ausarbeitung in Englisch verfassen werden. Hintergrund ist, dass Sie sich in laufende Forschungsprojekte einbringen mit den Unternehmen austauschen können sollen und von diesen wird mehrheitlich eine Kommunikation auf Deutsch gewünscht.

Weitere Informationen erhalten Sie auf Anfrage, der Arbeitsumfang kann entsprechend der Arbeit angepasst werden und die Bearbeitung weitestgehend im Home-Office stattfinden.

Intelligente Prozessoptimierung beim Richten von Flachdraht für elektrische Antriebe [BA/PA/MA]

Hintergrund
Die Fertigung elektrischer Antriebe, wie etwa Hairpin-, Continuous-Hairpin- oder Axialflussmaschinen, erfordert eine präzise Kontrolle von Material und Prozess. Ein zentraler Schritt ist das Richten von Flachdraht, das bislang auf festen Parametern und Erfahrungswissen basiert. Dabei werden Schwankungen im Material nur unzureichend berücksichtigt. Das Ziel besteht darin, diesen Prozess mithilfe moderner Sensorik, Messtechnik und innovativer Regelungsansätze weiterzuentwickeln, um die Produktionsqualität effizient zu steigern.

 

Mögliche Aufgabenstellungen
Studentische Arbeiten können zu einem der folgenden Themen erarbeitet werden:

  • Integration und Validierung eines Wirbelstromprüfsystems zur Analyse von Eigenspannungen beim Richten von Flachdraht.
  • Integration eines induktiven Abstandssensors zur Schichtdickenmessung
  • Erweiterung der prototypischen Versuchsanlage um Sicherheitstechnik
  • Modellierung und Simulation des Richtprozesses
  • Weiterentwicklung einer flexiblen, mechanischen Abisolierstation für Flachdraht
  • SPS-Programmierung einer Schwenkbiege-Anlage zum 2D-Biegen von Flachdraht

Die detaillierten Inhalte und Aufgabenstellungen werden in einem persönlichen Gespräch besprochen.

 

Anforderungsprofil

  • Interesse an der Produktion elektrischer Traktionsantriebe
  • Je nach Themengebiet sind Grundkenntnisse in Konstruktion, Messtechnik, Programmierung, Datenanalyse (KI/ML) oder Regelungstechnik erforderlich.
  • Freude an praktischer Arbeit (Versuchsreihen, Messtechnik, Anlagenaufbau)
  • Analytisches, strukturiertes und selbstständiges Arbeiten
  • Teamfähigkeit und Kommunikationsstärke
  • Gute Deutsch- und Englischkenntnisse in Wort und Schrift

 

Bewerbung
Bitte senden Sie Ihre Bewerbung mit

  • Lebenslauf
  • Aktuellem Notenspiegel
  • Angabe der bevorzugten Aufgabenstellung

per E-Mail an anja.preitschaft@faps.fau.de

Wichtig: Bewerbungen ohne konkrete Nennung eines Themenbereichs können leider nicht bearbeitet werden.

Analyse und Bewertung von Aluminium-Flachdraht für Hairpin-Statoren – Systematische Literaturrecherche [BA/PA/MA]

Motivation

Im Zuge der Transformation der Mobilität gewinnen elektrische Traktionsantriebe zunehmend an Bedeutung. Besonders die Hairpin-Technologie hat sich in der industriellen Serienfertigung von Elektromotoren etabliert, da sie hohe Leistungsdichten und eine gute Automatisierbarkeit ermöglicht. In konventionellen Hairpin-Statoren werden überwiegend Kupferflachleiter eingesetzt.

Vor dem Hintergrund steigender Rohstoffpreise, Gewichtseinsparungen sowie Nachhaltigkeitsaspekten rückt jedoch der Einsatz alternativer Leiterwerkstoffe – insbesondere Aluminium – verstärkt in den Fokus von Forschung und Industrie. Aluminium-Flachdraht bietet potenzielle Vorteile hinsichtlich Kosten und Gewicht, stellt jedoch gleichzeitig neue Herausforderungen für Fertigungsprozesse, Verbindungstechnologien sowie elektrische und thermische Eigenschaften dar.

Ziel dieser studentischen Arbeit ist daher eine systematische Literaturrecherche und Analyse des aktuellen Stands der Technik zu Aluminium-Flachdraht in Hairpin-Statoren sowie die Identifikation von Forschungs- und Entwicklungsbedarfen entlang der Prozesskette der Statorfertigung.

Mögliche Aufgabenstellungen

Im Rahmen der Arbeit sollen wissenschaftliche Veröffentlichungen, Patente und industrielle Ansätze analysiert und strukturiert ausgewertet werden. Mögliche Schwerpunkte sind:

  • Systematische Literaturrecherche zu Aluminium-Flachleitern für elektrische Traktionsmaschinen
  • Analyse des aktuellen Stands der Technik von Hairpin-Statoren und der verwendeten Leiterwerkstoffe
  • Untersuchung der elektrischen, thermischen und mechanischen Eigenschaften von Aluminium im Vergleich zu Kupfer
  • Bewertung der Auswirkungen auf Fertigungsprozesse, zum Beispiel
    • Drahtziehen und Richtprozesse
    • Biegeprozesse von Hairpins
    • Kontaktierungs- und Verbindungstechnologien (z. B. Schweißen, Crimpen, Löten)
  • Analyse möglicher Isolations- und Beschichtungssysteme für Aluminiumleiter
  • Strukturierte Aufbereitung der Ergebnisse und Identifikation von Forschungslücken
  • Ökonomische und ökologische Bewertung des Einsatzes von Aluminiumleitern
  • Ableitung von Handlungsempfehlungen für zukünftige Forschungsarbeiten

Anforderungsprofil

  • Studium im Bereich Maschinenbau, Mechatronik, Elektrotechnik, Wirtschaftsingenieurwesen oder verwandter Studiengänge
  • Interesse an elektrischen Antrieben und deren Fertigungstechnologien
  • Grundkenntnisse in Werkstoffkunde, Elektromaschinenbau oder Produktionstechnik von Vorteil
  • Interesse an wissenschaftlicher Recherche und Analyse
  • Selbstständige, strukturierte und sorgfältige Arbeitsweise
  • Gute Deutsch- und Englischkenntnisse in Wort und Schrift

 

Bewerbung

Bei Interesse senden Sie bitte Ihre Bewerbung mit:

  • Lebenslauf
  • aktuellem Notenspiegel

per E-Mail an anja.preitschaft@faps.fau.de

Siemens AG [BA/MA Extern]: Entwicklung einer Methodik zur effizienten Generierung von Trainingsdaten für Vision Language Action (VLA) Modell-basierte Robotermanipulation

Ausgangssituation:

Vision Language Action (VLA)-Modell- und World-Modell-basierte Ansätze versprechen einen Paradigmenwechsel beim Training von Robotersystemen für komplexe Manipulationsaufgaben mit variablen Randbedingungen. Eine wesentliche Herausforderung ist jedoch der enorme Datenbedarf, insbesondere die Generierung hochwertiger Trainingsdaten. Die oft als optimal angesehene Datenerfassung durch direkte Teleoperation des Endsystems ist extrem zeit- und kostenintensiv sowie durch menschliche Fähigkeiten limitiert. Simulationsbasierte Daten leiden wiederum oft unter mangelnder Übertragbarkeit auf reale Systeme. Es besteht ein dringender Bedarf, effizientere Wege zur Trainingsdatenerfassung für VLA-basierte Systeme im industriellen Umfeld zu finden und zu evaluieren.

Zielsetzung:

Ziel dieser Arbeit ist die Entwicklung einer Methodik zur effizienten Generierung von Trainingsdaten für VLA-basierte Robotersysteme in einem industriellen Fertigungsumfeld. Im Rahmen der Arbeit sollen verschiedene Ansätze zur Datengenerierung wie simulationsbasierte Daten, Lernen aus First-Person-View-Videos und Mischformen implementiert, analysiert und deren Einsetzbarkeit sowie Effektivität bewertet werden. Hieraus soll abschließend eine Methodik abgeleitet werden, die die effiziente Datenerzeugung für industrialisierbare VLA-basierte Ansätze ermöglicht.

Aufgabenschwerpunkte & Arbeitspakete:
  • Einarbeitung in den Stand der Technik zu VLA-Modellen, Trainingsdatengenerierung und industrieller Robotik
  • Strukturierte Literaturrecherche zu bestehenden Ansätzen zur Trainingsdatengenerierung sowie zu relevanten Benchmarks zur Bewertung der Effektivität verschiedener Datenerfassungsmethoden
  • Umsetzung und Analyse der Einsetzbarkeit verschiedener Trainingsdatenerfassungsansätze in industriellen Prozessen
  • Durchführung eines strukturierten Versuchsplans zur Erfassung von Trainingsdaten aus unterschiedlichen Quellen und anschließendes Finetuning eines VLA-Modells mit verschiedenen Datensätzen für einen exemplarischen Prozess
  • Vergleich der erzielten Ergebnisse und Untersuchung des Einflusses verschiedener Datenmischstrategien auf die Modellperformanz
  • Ableitung einer Methodik zur effizienten Generierung von Trainingsdaten für VLA-modellbasierte Robotermanipulation
  • Strukturierte Dokumentation der Arbeit und Präsentation der Ergebnisse

Vorkenntnisse:

  • Interesse an industrieller Robotik und künstlicher Intelligenz
  • Grundlegende Programmierkenntnisse in Python von Vorteil, aber nicht erforderlich
  • Sehr gute Deutsch- und Englisch-Kenntnisse

Der Arbeitsumfang kann entsprechend der Art der Abschlussarbeit angepasst werden.

Bewerbungen ausschließlich per E-Mail mit aussagekräftigen Unterlagen (Lebenslauf, vollständige Notenübersicht)

[BA/PA/MA] – Aufbereitung und Strukturierung industrieller Fertigungsdaten für das Training eines prozessübergreifenden World Models

Ausgangssituation:

Moderne Fertigungsprozesse erzeugen große Mengen multimodaler Maschinendaten, die das Potenzial bieten, datengetriebene Modelle für verschiedenste Anwendungsfälle wie Predictive Quality, Predictive Maintenance oder Prozessoptimierung zu trainieren. Ein vielversprechender Ansatz ist das Konzept eines World Models, das die Zusammenhänge zwischen Prozesseingangsdaten, Zielgrößen und Stellgrößen bzw. Aktionen ganzheitlich lernt. Voraussetzung dafür ist ein strukturierter, qualitativ hochwertiger Datensatz, der Maschinendaten verschiedener Modalitäten und Quellen auf Sample-Ebene mit geeigneten Ziel- und Regelgrößen verknüpft. Aktuell liegen diverse industrielle Datensätze unterschiedlicher Prozesse sowie öffentlich verfügbare industrielle Referenzdatensätze vor, die als Grundlage für ein solches Vorhaben dienen sollen.

Keywords:
Data Engineering, Datenanalyse, World Model, Predictive Quality, Predictive Maintenance, industrielle Fertigungsdaten, multimodale Daten

 

Aufgabenstellungen:

Ziel der Arbeit ist die methodische Aufbereitung, Analyse und Strukturierung heterogener industrieller Datensätze, sodass diese als Trainingsgrundlage für ein prozessübergreifendes World Model genutzt werden können. Die Aufgabenstellung umfasst die folgenden Arbeitspakete:

  • Fachliche Einarbeitung in die Themenfelder Data Engineering für industrielle Fertigungsdaten, World Models sowie relevante Anwendungsfälle (Predictive Quality, Predictive Maintenance, Prozesssteuerung)
  • Analyse, Bereinigung und ggf. Korrektur der vorliegenden Maschinendaten und Zielgrößen unterschiedlicher Modalitäten und Quellen
  • Identifikation und Extraktion geeigneter Regelgrößen aus den Maschinendaten, die als Aktionen des World Models dienen
  • Verknüpfung der Eingangsdaten (X), Aktionen (a) und Zielgrößen (y) zu einem konsistenten, strukturierten Datensatz auf Sample-Ebene
  • Entwicklung einer geeigneten Datenstruktur, die sowohl eine einfache Analyse und Visualisierung als auch ein performantes Laden für das Modelltraining ermöglicht
  • Entwicklung eines interaktiven Dashboards zur Visualisierung, Filterung und Erzeugung von Train-/Validation-/Test-Splits inkl. wählbarer Skalierungsmethoden

 

Anforderungsprofil und Informationen zur Bewerbung:

  • Interesse an datengetriebenen Methoden im industriellen Umfeld, idealerweise erste Erfahrungen im Bereich Data Engineering oder Datenanalyse
  • Hohe Motivation, Auffassungsgabe sowie strukturierte Arbeitsweise und gute Kommunikationsfähigkeiten
  • IT-Affinität und gute Kenntnisse mindestens einer Hochsprache (idealerweise Python) wünschenswert
  • Bearbeitungsbeginn ab sofort möglich
  • Umfang und Inhalte je nach Arbeit (BA/PA/MA) und Präferenzen individuell abstimmbar
  • Bewerbungen bitte mit CV und aktueller Fächer-/Notenübersicht per Mail an unten genannten Kontakt

Simulative und praktische Bestimmung des thermo-mechanischen Verzugs bei der additiven Metallisierung keramischer Substrate

Ausgangssituation:

Einen vielversprechenden Ansatz zur additiven, ressourcen- und energieschonenden Herstellung leistungselektronischer Baugruppen bietet das selektive Laserstrahlschmelzen (SLM) von auf keramischen Substraten aufgebrachten Metallpulvern zur Funktionalisierung des Schaltungsträgers. Die Kombination der Vorteile des Laserstrahls, wie dem gezielten Energieeintrag oder der feinen Strukturbreite und der einfachen Handhabung, ermöglichen eine Flexibilisierung der Leiterbildstruktur, Minimierung der Strukturfeinheiten bei gleichzeitiger Option großflächige Strukturen zu generieren und birgt darüber hinaus die Möglichkeit einer 2,5D Funktionalisierung. Bei der Metallisierung von keramischen Substraten durch den laserbasierten Aufbau von Pulver gibt es allerdings auch technologische Hürden wie die Rissbildung in der Keramik in Folge der hohen thermischen Gradienten oder der Verzug des keramischen Grundmaterials.

Aufgabenstellung:

In der Arbeit soll der Bauteilverzug anhand von thermo-mechanischen Finite-Elemente-Analysen in Ansys-Workbench modelliert und parametriert simuliert werden. Der Verzug soll anschließend in praktischen Studien mit verfügbarer Anlagentechnik am Lehrstuhl validiert und zur Verbesserung des Modells genutzt werden. Die Untersuchungen sollen in einer Handlungsempfehlung zur doppelseitigen Metallisierung von keramischen Substraten mittels SLM basierend auf den Untersuchungen abgeleitet werden.

  • Recherche zur thermo-mechanischen Modellbildung des selektiven Laserschmelzen mittels Ansys Workbench
  • Weiterentwicklung bestehender Modelle, v. a. hinsichtlich
    • Diskretisierung in Raum und Zeit
    • Thermischer und mechanischer Randbedingungen
    • Materialmodellen zur Berücksichtigung nicht-linearer Zusammenhänge
  • Durchführung von Simulationsstudien
  • Validierung und Modelloptimierung anhand experimenteller Untersuchungen
  • Dokumentation der Arbeit

Bewerbung:

Bitten wenden Sie sich bei Interesse mit kurzem Lebenslauf und vollständiger Notenübersicht per Mail an christoph.hecht@faps.fau.de.

[BA/PA/MA] Weiterentwicklung eines Sensordemonstrators zur automatisierten Erzeugung multimodaler Trainingsdaten für ein handlungsfähiges World Model

Ausgangssituation:

Am Lehrstuhl FAPS besteht ein modularer Sensordemonstrator, der im Rahmen einer Masterarbeit entwickelt und in Betrieb genommen wurde. Der Demonstrator bildet eine miniaturisierte Produktionsanlage ab und umfasst einen drehbaren Materialbereitsteller mit zwei Lagertürmen, einen pneumatischen Schwenkarm mit Vakuumgreifer, einen Bearbeitungsbereich mit Drehteller, Stempel und Kamera-basierter Qualitätskontrolle (OpenCV/ML) sowie ein Förderband mit drei Weichen zur Materialverteilung. Die Anlage wird über eine Siemens SPS (S7-1500) gesteuert und verfügt über eine Vielzahl verbauter Sensoren unterschiedlicher Modalitäten – darunter optische Abstandssensoren, kapazitive und induktive Näherungsschalter, Drucksensoren, Lichtschranken, eine Industriekamera sowie mechanische Endschalter – und pneumatischer wie elektrischer Aktoren.

Langfristiges Ziel ist es, auf Basis dieses Demonstrators ein sogenanntes World Model zu entwickeln: ein datengetriebenes Prozessmodell, das Zustände, Aktionen und deren Auswirkungen intern abbildet und so eine ganzheitliche, vorausschauende Optimierung des Betriebs ermöglicht. Um ein solches Modell trainieren zu können, wird ein geeigneter Trainingsdatensatz benötigt, der multimodal (Zeitreihen, Bilddaten etc.), domänenübergreifend (verschiedene Produkte und Prozessvarianten) und handlungsorientiert (mit expliziten Aktionen und Störungen) aufgebaut ist. Ziel dieser Arbeit ist die Erzeugung dieses Datensatzes – sowie die dafür nötige Erweiterung und Automatisierung des Demonstrators.

Keywords:
World Model, Domain Generalization, Multimodal Dataset, Sensordemonstrator, SPS, Design of Experiments, Predictive Quality, Predictive Maintenance, Anomaly Detection, Industrie 4.0

 

Aufgabenstellungen:

Ziel der Arbeit ist die systematische Erstellung eines domänenübergreifenden, multimodalen Datensatzes auf Basis des bestehenden Sensordemonstrators, der zum späteren Training eines handlungsfähigen World Models geeignet ist. Der Datensatz soll auf Sample-Ebene die Eingangsdaten aller Sensormodalitäten (X), die anwendungsfallspezifischen Labels (y; Qualität, Störung, Anomalie etc.) sowie die jeweils zugrunde liegenden Aktionen (a) zeitsynchron enthalten. Durch den Aufbau über mehrere Domänen hinweg (z. B. unterschiedliche Produkte, Maschinen oder Prozessvarianten) soll der Datensatz später ein domänenübergreifendes Lernen (Domain Generalization) ermöglichen. Darüber hinaus soll der Datensatz möglichst viele industrielle Anwendungsfälle abdecken können, darunter Predictive Quality, Predictive Maintenance und Anomaly Detection. Die Aufgabenstellung umfasst die folgenden Arbeitspakete:

  • Bestandsaufnahme: Systematische Dokumentation des Ist-Zustands des Demonstrators (verbaute Sensorik, Aktorik, SPS-Programm, Datenflüsse, bestehende Steuerungsszenarien). Identifikation der vorhandenen Sensormodalitäten (Zeitreihen, Bilddaten, binäre Signale etc.) und Bewertung der Datenlage als Grundlage für einen multimodalen Datensatz.
  • Evaluierung und Integration von Aktionen: Identifikation und Bewertung möglicher Stellgrößen, die als Aktionen in den Prozess integriert und über die SPS variiert werden können (z. B. Bandgeschwindigkeit, Stempeldruck/-dauer, Schwenkgeschwindigkeit, Drehteller-Taktung, Weichenlogik). Auswahl und Implementierung geeigneter Aktionen, sodass deren Auswirkungen auf die Sensordaten und den Prozessausgang messbar werden.
  • Konzeption und Einbringung von Störungen: Überprüfung, welche Prozessstörungen realistisch erzeugt oder simuliert werden können (z. B. Druckabfall, Sensorausfall/-degradation, Werkstückvarianz, Bandstopp). Integration ausgewählter Störszenarien in den Demonstratorbetrieb, um Trainingsdaten für Anomaly Detection und Predictive Maintenance zu generieren.
  • Domänenkonzept und Qualitätssimulation: Definition von Domänen für den Datensatz, z. B. unterschiedliche Werkstückvarianten (Material, Farbe, Geometrie) oder Prozessvarianten (Szenarien, Parameterregime). Erarbeitung eines Konzepts zur Simulation bzw. kontrollierten Erzeugung von Produktqualitätsunterschieden, um gelabelte Qualitätsdaten für Predictive Quality zu erhalten. Perspektivisch existiert eine zweite, baugleiche Demonstratorinstanz, die eine Generalisierung über Maschineninstanzen hinweg ermöglichen könnte.
  • Umrüstung, Programmierung und modulare Softwarearchitektur: notwendige Hardware-Erweiterungen sowie Anpassung/Erweiterung des SPS-Programms und der Datenerfassungs-Pipeline. Der Steuerungscode soll modular aufgebaut werden und definierte Schnittstellen bereitstellen, über die später ein trainiertes World Model eingebunden werden kann, um den Demonstrator in Echtzeit basierend auf Modellvorhersagen zu regeln.
  • Automatisierte Versuchsdurchführung (DoE): Entwicklung eines Programms, mit dem ein Design of Experiments basierend auf konfigurierbaren Eingaben (Aktionsparameter, Störszenarien, Domänen) erzeugt und automatisiert am Demonstrator durchgeführt werden kann. Das Programm soll wiederverwendbar sein, damit zu einem späteren Zeitpunkt unkompliziert weitere Daten generiert werden können.
  • Datensatzerstellung, Dokumentation und Bewertung: Durchführung der Versuchsreihe und Erstellung des strukturierten Datensatzes. Jedes Sample soll die multimodalen Sensordaten (X), die anwendungsfallspezifischen Labels (Qualität, Störung, Anomalie etc.) und die zugrunde liegenden Aktionen (a) enthalten. Dokumentation des Datensatzformats, Datenqualitätsanalyse und Diskussion der Eignung für das Training eines domänenübergreifenden, multimodalen und handlungsfähigen World Models.

 

 

Anforderungsprofil und Informationen zur Bewerbung:

  • Interesse an Automatisierungstechnik und datengetriebener Prozessoptimierung
  • Grundkenntnisse in SPS-Programmierung (idealerweise Siemens TIA Portal) oder hohe Bereitschaft zur Einarbeitung
  • Gute Programmierkenntnisse (idealerweise Python) für Datenerfassung, Versuchsautomatisierung und Schnittstellenentwicklung
  • Praktisches Geschick im Umgang mit Hardware (Sensorik, Aktorik, Pneumatik) von Vorteil
  • Idealerweise Grundverständnis von Machine Learning und Versuchsplanung (Design of Experiments)
  • Hohe Motivation, strukturierte Arbeitsweise und gute Kommunikationsfähigkeiten
  • Bearbeitungsbeginn ab sofort möglich
  • Umfang und Inhalte je nach Arbeit (BA/PA/MA) und Präferenzen individuell abstimmbar
  • Bewerbungen bitte mit CV und aktueller Fächer-/Notenübersicht per Mail an unten genannten Kontakt

Proof-of-Concept: World Models für ereignisdiskrete Produktionssimulation (optional mit Quantum-Computing-Ansatz)

Titel:
Proof-of-Concept: World Models für ereignisdiskrete Produktionssimulation (optional mit Quantum-Computing-Ansatz)

Art der Arbeit:
Studienarbeit / Projektarbeit / Masterarbeit (nach Absprache)

Hintergrund und Motivation
Ereignisdiskrete Simulation (DES) ist ein etabliertes Werkzeug zur Planung und Optimierung von Produktionssystemen, stößt aber bei umfangreichen Szenariostudien und Optimierungsaufgaben an Grenzen hinsichtlich Rechenzeit und Automatisierung. World Models aus dem Bereich des modelbasierten Reinforcement Learning ermöglichen es, dynamische Systeme als lernbasierte Surrogate abzubilden und damit Entscheidungen und Policies in einem gelernten Modell statt in der vollständigen Simulation zu optimieren. Im Rahmen dieser Arbeit soll ein Proof-of-Concept erarbeitet werden, wie World Models für eine Produktions‑DES eingesetzt werden können, welche Potenziale und Anwendungsbereiche sich daraus ableiten lassen und inwiefern sich Ansätze zur quantenbasierten Parallelisierung perspektivisch nutzen lassen.

Ziel der Arbeit
Ziel der Arbeit ist die Konzeption und Umsetzung eines Proof-of-Concept, bei dem ein World Model als Surrogate für eine ereignisdiskrete Produktionssimulation dient und zur schnellen Bewertung von Steuerungs‑ bzw. Scheduling‑Strategien eingesetzt werden kann. Darüber hinaus sollen die Potenziale (z.B. Rechenzeiteinsparung, verbesserte Policy-Optimierung, neue Analyse‑Workflows) und konkrete Anwendungsbereiche in der Produktionsplanung systematisch herausgearbeitet und bewertet werden. Optional soll untersucht werden, welche Teilaspekte (z.B. Trajektoriensuche, Policy-Evaluation) prinzipiell durch Quantum-Computing‑Ansätze parallelisiert werden könnten und wie ein entsprechendes Forschungs-Setup aussehen würde.

Aufgabenstellung (Arbeitspakete)

1. Literaturrecherche

  • Recherche zu World Models und modelbasiertem Reinforcement Learning (Dreamer, latent World Models) mit Fokus auf Produktions‑ und Simulationsanwendungen.
  • Recherche zu bestehenden Ansätzen für Surrogate‑Modelle in der Simulation sowie ersten Studien zu Quantum Reinforcement Learning und quantenbasierter Parallelisierung von Trajektorien.
  • Systematische Sichtung von Veröffentlichungen zu Potenzialen und Anwendungsfeldern von KI‑basierten Surrogates und World Models in Digitalen Zwillingen und Produktionssystemen.

2. Konzeption eines geeigneten Demonstrators

  • Auswahl und Konzeption eines geeigneten DES‑Demonstrators für ein Produktionssystem. Im Best Case wird Siemens Plant Simulation verwendet; alternativ kommen SimPy (Python) oder AnyLogic in Frage.
  • Festlegung einer kompakten Zustands‑ und Aktionsrepräsentation (State-Vector aus Queue-Längen, Maschinenzuständen, WIP etc.; Aktionen z.B. Dispatching-/Prioritätsregeln).

3. Implementierung eines World Models für DES

  • Erstellung einer Datengrundlage durch Simulationstrajektorien aus dem gewählten DES‑Tool (bevorzugt Plant Simulation, alternativ SimPy oder AnyLogic).
  • Implementierung oder Adaption eines World-Model-Ansatzes (z.B. DreamerV3‑ähnliche Architektur oder vereinfachtes latent dynamisches Modell) in Python.
  • Training und Validierung des World Models als Surrogate: Vergleich von simulierten Trajektorien und relevanten KPIs im World Model gegenüber der ursprünglichen DES.

4. Proof-of-Concept: Einsatz des World Models und Potenzialanalyse

  • Nutzung des World Models zur schnellen Bewertung von Steuerungs‑ oder Scheduling‑Strategien (z.B. durch Rollouts im gelernten Modell oder einfaches Planning).
  • Quantitative und qualitative Analyse von Rechenzeit, Genauigkeit und Generalisierungsfähigkeit über mehrere Szenarien/Varianten des Produktionssystems.
  • Herausarbeitung der Potenziale und Grenzen des Ansatzes für typische Anwendungsbereiche (z.B. Layout‑Variantenvergleich, Schicht- und Auftragsplanung, Engpass‑Management) und Ableitung von Handlungsempfehlungen.

5. Optionale Vertiefung: Quantum-Computing-Perspektive

  • Sichtung relevanter Quantum-RL‑Literatur und Identifikation von Subproblemen (z.B. Trajektoriensuche oder Policy-Evaluation), die prinzipiell für eine quantenbasierte Parallelisierung geeignet sind.
  • Konzeption eines skizzenhaften PoC‑Setups (z.B. auf Basis vorhandener Quantum‑Frameworks und kleiner Beispielumgebungen), das die Einbindung von Quantum-Computing in World-Model-basierte RL‑Ansätze demonstriert.

6. Dokumentation und Präsentation

  • Systematische Dokumentation der Methodik, Ergebnisse, Potenziale und Grenzen des Ansatzes.
  • Abschlusspräsentation der Arbeitsergebnisse am Lehrstuhl.

Voraussetzungen

  • Laufendes Studium in Maschinenbau, Mechatronik, Wirtschaftsingenieurwesen, Informatik, Data Science oder einem vergleichbaren Studiengang.
  • Grundkenntnisse in Python und Interesse an Maschinellem Lernen / Reinforcement Learning.
  • Erste Erfahrungen mit Simulation (z.B. DES, agentenbasierte Modelle oder eigene Python‑Simulationen); Erfahrung mit Plant Simulation, SimPy oder AnyLogic ist von Vorteil.
  • Selbstständige, strukturierte Arbeitsweise und Freude an forschungsnahen Fragestellungen.

Rahmenbedingungen

  • Beginn: Nach Absprache, ab sofort möglich.
  • Dauer: Entsprechend Prüfungsordnung (Studienarbeit/Projektarbeit/Masterarbeit).
  • Die Arbeit ist in aktuelle Forschungsaktivitäten im Bereich Digitaler Zwilling, Simulation und KI am Lehrstuhl FAPS eingebunden.

Betreuung und Kontakt
Ansprechpartner:
Martin Barth, M.Eng.
Lehrstuhl für Fertigungsautomatisierung und Produktionssystematik (FAPS), FAU Erlangen-Nürnberg
E-Mail: martin.barth@faps.fau.de

Bitte senden Sie Ihre Bewerbung mit kurzem Motivationsschreiben, Lebenslauf und aktuellem Notenspiegel per E‑Mail an martin.barth@faps.fau.de

BA/PA/MA: Neuartiges Bein für humanoide Roboter

Humanoide Roboter werden zunehmend für vielfältige Anwendungen in Industrie, Service und Forschung eingesetzt. Zur Bewegung der Gelenke kommen derzeit überwiegend Getriebemotoren zum Einsatz. Diese stoßen jedoch bei den für humanoide Systeme typischen dynamischen Belastungen an ihre Grenzen. Insbesondere die beim Laufen auftretenden Stoßbelastungen führen dazu, dass konventionelle Gelenkgetriebe nur bedingt dauerhaft geeignet sind. In der Praxis resultiert dies in erhöhtem Verschleiß und häufigen Austauschzyklen der Getriebe, was wiederum unerwünschte Stillstandszeiten verursacht.
Am FAPS wird daher ein alternatives Bein für humanoide Roboter entwickelt, das auf Seilen basiert. Im Fokus stehen Tensegrity-Strukturen, die aufgrund ihrer nachgiebigen und lastverteilenden Eigenschaften in der Lage sind, Kraftspitzen bei Stoßbelastungen signifikant zu reduzieren und so die mechanischen Komponenten des Roboters zu schützen.
Ziel ist es, einen funktionsfähigen Beitrag zur Entwicklung eines robusteren, stoßtoleranten Beinmoduls für humanoide Roboter zu leisten und damit die Betriebssicherheit sowie die Lebensdauer der Systeme zu erhöhen.

Mögliche Aufgabenstellungen
Im Rahmen einer studentischen Arbeit können unter anderem folgende Themen bearbeitet werden:

  • Aufbau und Inbetriebnahme eines Demonstrators
  • Entwicklung und Integration der Aktorik
  • Konzeption und Implementierung der Steuerung
  • Konstruktive Weiterentwicklung des Systems, insbesondere
    • Geometrieoptimierung
    • Auslegung und Dimensionierung
    • Festigkeits- und Strukturanalysen

Anforderungsprofil

  • Engagement und Initiative bei der Umsetzung von Aufgaben
  • Gute Kenntnisse in Mechanik und Maschinenbau
  • Erfahrung in Konstruktion und Umgang mit CAD
  • Interesse an Tensegrity-Strukturen, seilbasierten Systemen und Robotik
  • Selbstständige, strukturierte und sorgfältige Arbeitsweise
  • Sehr gute Deutsch- und Englischkenntnisse

Hinweise zur Bewerbung

  • Beginn ist jederzeit möglich
  • Bewerbungen bitte per E-Mail mit aktuellem Lebenslauf und Notenübersicht senden (unvollständige Bewerbungen werden nicht berücksichtigt)
  • BA/PA/MA möglich