Index

Prototyp einer self-managed Multi-Cluster-Architektur für die Edge (BA/PA/MA)

Der Einsatz von Edge Computing gewinnt in vielen Bereichen an Bedeutung, da er die Datenverarbeitung näher an den Ort der Datenentstehung verlagert und damit Latenzen, Bandbreitenbedarf sowie Abhängigkeiten von Cloud-Verbindungen reduziert. Gleichzeitig steigen die Anforderungen an Automatisierung, Lifecycle Management und Fleet Operations, weil Edge-Knoten oft heterogen sind, in instabilen Netzen laufen und nur eingeschränkt an verteilten Ort gewartet werden können.

Ziel dieser studentischen Arbeit ist der Aufbau und die prototypische Evaluation einer self-managed Edge-Kubernetes-Referenzarchitektur (hub-and-spoke), die zunächst virtuelle Edge Devices (VMs auf Proxmox VE und/oder OpenStack) nutzt und später auf dedizierte Hardware übertragbar ist. Im Fokus steht eine reproduzierbare Day-0 Provisioning Pipeline via (i)PXE boot sowie first-boot configuration mit cloud-init und Ignition/Combustion (optional unter Nutzung von Matchbox). Darauf aufbauend sollen mehrere Linux- und Kubernetes-Cluster-Varianten automatisiert gestartet und zentral mit GitOps sowie Fleet-style Multi-Cluster Rollout verwaltet werden.

(Mögliche) Schwerpunkte der Arbeit:

  • Design & Implementierung einer hub-and-spoke Referenzarchitektur für self-managed Edge Kubernetes (Management Cluster + Edge Spokes).
  • Provisioning Pipeline: Klassisches (i)PXE, darauf aufbauendes Netboot mittels HTTPBoot via UEFI or U-Boot oder je nach BMC auch IPMI/Redfish, Profilverwaltung (optional Matchbox) und Konfiguration via Ignition/Combustion/cloud-init. Parallel dazu Lifecycle Management mittels Cluster API und entsprechendem Provider (z.B. CAPM3 (Metal³ im Falle OpenStack Ironic) oder CAPT (Tinkerbell im Falle von einfachem iPXE/Netboot))
  • Definition von stabilen Cluster-Profilen (z.B. Talos Linux, openSUSE Leap Micro + k3s, Ubuntu + MicroK8s oder Debian + k0s) inkl. automatisiertem Bootstrap und Re-Provisioning (replaceable nodes).
  • GitOps-gestützte Baseline: Standardisierte Installation von Add-ons (z. B. Longhorn, Ingress, Observability) über Argo CD oder Flux.
  • Persistence & Registry Integration: Longhorn als persistence storage, Deployment-Pipeline über GitLab CI/CD, GitLab Container Registry, Harbor als Proxy Cache und Replication Bridge / Pull-Through Cache (ggf. zunächst lediglich GitLab Dependency Proxy für Docker Hub) und optional K3s Spegel.
  • Dokumentation & Demonstrator: Nachvollziehbare Architektur-/Betriebsdokumentation, IaC/Automation in einem Git-Repository sowie eine Demo-Umgebung als Testbed für Forschung/Lehre.

Ausblick auf darauf aubauende Arbeiten:

  • Erweiterung des Lifecycle Managements um Foreman und Katello.
  • Fleet-style Multi-Cluster Rollout: Vergleich und Bewertung von Rancher Fleet, Argo CD ApplicationSet und Flux (optional Open Cluster Management (OCM) / Karmada) anhand definierter Kriterien (Drift, Skalierbarkeit, Multi-tenancy, Offline-Toleranz, Usability usw.).
  • Integration und Reifegradbewertung von KubeEdge/OpenYurt oder LF Edge Komponenten (FIDO Device Onboard, EVE-OS, EdgeX Foundry) im Rahmen der bestehenden Architektur.

Wenn die ausgeschriebene Arbeit noch online ist, dann ist sie auch noch aktuell. Sollten Sie Interesse an der Arbeit haben, so kommen Sie bitte mittels einer E-Mail (in der Sie kurz Ihr Vorwissen darstellen) auf mich zu. Sollten Sie eine intrinsische Motivation für ein angrenzendes oder ähnlichen Thema haben, so stellen Sie in Ihrer Anfrage bitte den Bezug zu meiner Ausschreibung dar.

Bitte stellen Sie die komplette Anfrage in deutscher Sprache, auch wenn Sie die Ausarbeitung in Englisch verfassen werden. Hintergrund ist, dass Sie sich in laufende Forschungsprojekte einbringen mit den Unternehmen austauschen können sollen und von diesen wird mehrheitlich eine Kommunikation auf Deutsch gewünscht.

Weitere Informationen erhalten Sie auf Anfrage, der Arbeitsumfang kann entsprechend der Arbeit angepasst werden und die Bearbeitung weitestgehend im Home-Office stattfinden.

Realisierung eines Mixed-SBC-Clusters für die Edge (BA/PA/MA)

Der Einsatz von Edge Computing gewinnt in vielen Bereichen an Bedeutung, da er die Datenverarbeitung näher an den Ort der Datenentstehung verlagert und damit Latenzen, Bandbreitenbedarf sowie Abhängigkeiten von Cloud-Verbindungen reduziert. Ein Mixed-SBC-Cluster, der verschiedene Single Board Computer (SBC) wie Nvidia Jetson, Raspberry Pi und verschiedene Hardwareerweiterungen umfasst, bietet eine ausgezeichnete Plattform, um die Herausforderungen und Möglichkeiten des Edge Computings zu erproben und zu demonstrieren.

Ziel ist die Entwicklung eines Mixed-SBC-Clusters für die Edge, der als experimentelle Plattform in industrienaher Forschung und für Lehrzwecke im Automatisierungsumfeld dient. Dieser Cluster soll die Heterogenität realer OT-Infrastrukturen bedienen und das Sammeln praktischer Erfahrungen mit Cluster-Management, verteilten Speichersystemen und der Integration von Erweiterungsmodulen (z.B. Funkmodul, Neural Processing Unit und Field Programmable Gate Array) eröffnen.

(Mögliche) Schwerpunkte der Arbeit:

  • Aufbau und Konfiguration eines heterogenen SBC-Clusters für Edge Computing Szenarien.
  • Einsatz eines Cluster-Management-Systems und Implementierung eines Service Mesh.
  • Einsatz von Automatisierungswerkzeugen und Infrastruktur-as-Code (IaC) zur effizienten Verwaltung und Konfiguration.
  • Implementierung eines Lifecycle-Managements des Betriebs bestehend aus Monitoring, Sicherung, Wartung und Aktualisierung.
  • Integration von Storage-Lösungen und spezifischen Erweiterungsmodulen für verschiedene Anwendungsfälle.
  • Integration in Anwendungsfälle der Automatisierungstechnik in industriellen Produktionsanlagen, der Gebäudeautomatisierung und insbesondere des Energiemanagements.
  • Beitrag zum Transfer in die Lehre als Praktikumsversuch oder Übungseinheit

Wenn die ausgeschriebene Arbeit noch online ist, dann ist sie auch noch aktuell. Sollten Sie Interesse an der Arbeit haben, so kommen Sie bitte mittels einer E-Mail (in der Sie kurz Ihr Vorwissen darstellen) auf mich zu. Sollten Sie eine intrinsische Motivation für ein angrenzendes oder ähnlichen Thema haben, so stellen Sie in Ihrer Anfrage bitte den Bezug zu meiner Ausschreibung dar.

Bitte stellen Sie die komplette Anfrage in deutscher Sprache, auch wenn Sie die Ausarbeitung in Englisch verfassen werden. Hintergrund ist, dass Sie sich in laufende Forschungsprojekte einbringen mit den Unternehmen austauschen können sollen und von diesen wird mehrheitlich eine Kommunikation auf Deutsch gewünscht.

Weitere Informationen erhalten Sie auf Anfrage, der Arbeitsumfang kann entsprechend der Arbeit angepasst werden und die Bearbeitung weitestgehend im Home-Office stattfinden.

Intelligente Prozessoptimierung beim Richten von Flachdraht für elektrische Antriebe [BA/PA/MA]

Hintergrund
Die Fertigung elektrischer Antriebe, wie etwa Hairpin-, Continuous-Hairpin- oder Axialflussmaschinen, erfordert eine präzise Kontrolle von Material und Prozess. Ein zentraler Schritt ist das Richten von Flachdraht, das bislang auf festen Parametern und Erfahrungswissen basiert. Dabei werden Schwankungen im Material nur unzureichend berücksichtigt. Das Ziel besteht darin, diesen Prozess mithilfe moderner Sensorik, Messtechnik und innovativer Regelungsansätze weiterzuentwickeln, um die Produktionsqualität effizient zu steigern.

 

Mögliche Aufgabenstellungen
Studentische Arbeiten können zu einem der folgenden Themen erarbeitet werden:

  • Integration und Validierung eines Wirbelstromprüfsystems zur Analyse von Eigenspannungen beim Richten von Flachdraht.
  • Integration eines induktiven Abstandssensors zur Schichtdickenmessung
  • Erweiterung der prototypischen Versuchsanlage um Sicherheitstechnik
  • Modellierung und Simulation des Richtprozesses
  • Weiterentwicklung einer flexiblen, mechanischen Abisolierstation für Flachdraht
  • SPS-Programmierung einer Schwenkbiege-Anlage zum 2D-Biegen von Flachdraht

Die detaillierten Inhalte und Aufgabenstellungen werden in einem persönlichen Gespräch besprochen.

 

Anforderungsprofil

  • Interesse an der Produktion elektrischer Traktionsantriebe
  • Je nach Themengebiet sind Grundkenntnisse in Konstruktion, Messtechnik, Programmierung, Datenanalyse (KI/ML) oder Regelungstechnik erforderlich.
  • Freude an praktischer Arbeit (Versuchsreihen, Messtechnik, Anlagenaufbau)
  • Analytisches, strukturiertes und selbstständiges Arbeiten
  • Teamfähigkeit und Kommunikationsstärke
  • Gute Deutsch- und Englischkenntnisse in Wort und Schrift

 

Bewerbung
Bitte senden Sie Ihre Bewerbung mit

  • Lebenslauf
  • Aktuellem Notenspiegel
  • Angabe der bevorzugten Aufgabenstellung

per E-Mail an anja.preitschaft@faps.fau.de

Wichtig: Bewerbungen ohne konkrete Nennung eines Themenbereichs können leider nicht bearbeitet werden.

Analyse und Bewertung von Aluminium-Flachdraht für Hairpin-Statoren – Systematische Literaturrecherche [BA/PA/MA]

Motivation

Im Zuge der Transformation der Mobilität gewinnen elektrische Traktionsantriebe zunehmend an Bedeutung. Besonders die Hairpin-Technologie hat sich in der industriellen Serienfertigung von Elektromotoren etabliert, da sie hohe Leistungsdichten und eine gute Automatisierbarkeit ermöglicht. In konventionellen Hairpin-Statoren werden überwiegend Kupferflachleiter eingesetzt.

Vor dem Hintergrund steigender Rohstoffpreise, Gewichtseinsparungen sowie Nachhaltigkeitsaspekten rückt jedoch der Einsatz alternativer Leiterwerkstoffe – insbesondere Aluminium – verstärkt in den Fokus von Forschung und Industrie. Aluminium-Flachdraht bietet potenzielle Vorteile hinsichtlich Kosten und Gewicht, stellt jedoch gleichzeitig neue Herausforderungen für Fertigungsprozesse, Verbindungstechnologien sowie elektrische und thermische Eigenschaften dar.

Ziel dieser studentischen Arbeit ist daher eine systematische Literaturrecherche und Analyse des aktuellen Stands der Technik zu Aluminium-Flachdraht in Hairpin-Statoren sowie die Identifikation von Forschungs- und Entwicklungsbedarfen entlang der Prozesskette der Statorfertigung.

Mögliche Aufgabenstellungen

Im Rahmen der Arbeit sollen wissenschaftliche Veröffentlichungen, Patente und industrielle Ansätze analysiert und strukturiert ausgewertet werden. Mögliche Schwerpunkte sind:

  • Systematische Literaturrecherche zu Aluminium-Flachleitern für elektrische Traktionsmaschinen
  • Analyse des aktuellen Stands der Technik von Hairpin-Statoren und der verwendeten Leiterwerkstoffe
  • Untersuchung der elektrischen, thermischen und mechanischen Eigenschaften von Aluminium im Vergleich zu Kupfer
  • Bewertung der Auswirkungen auf Fertigungsprozesse, zum Beispiel
    • Drahtziehen und Richtprozesse
    • Biegeprozesse von Hairpins
    • Kontaktierungs- und Verbindungstechnologien (z. B. Schweißen, Crimpen, Löten)
  • Analyse möglicher Isolations- und Beschichtungssysteme für Aluminiumleiter
  • Strukturierte Aufbereitung der Ergebnisse und Identifikation von Forschungslücken
  • Ökonomische und ökologische Bewertung des Einsatzes von Aluminiumleitern
  • Ableitung von Handlungsempfehlungen für zukünftige Forschungsarbeiten

Anforderungsprofil

  • Studium im Bereich Maschinenbau, Mechatronik, Elektrotechnik, Wirtschaftsingenieurwesen oder verwandter Studiengänge
  • Interesse an elektrischen Antrieben und deren Fertigungstechnologien
  • Grundkenntnisse in Werkstoffkunde, Elektromaschinenbau oder Produktionstechnik von Vorteil
  • Interesse an wissenschaftlicher Recherche und Analyse
  • Selbstständige, strukturierte und sorgfältige Arbeitsweise
  • Gute Deutsch- und Englischkenntnisse in Wort und Schrift

 

Bewerbung

Bei Interesse senden Sie bitte Ihre Bewerbung mit:

  • Lebenslauf
  • aktuellem Notenspiegel

per E-Mail an anja.preitschaft@faps.fau.de

Entwicklung einer Methodik zur Prozessbeschreibung für die automatisierte Fertigung von Kabelbäumen

Jedes moderne Fahrzeug enthält einen Kabelbaum mit bis zu mehreren Kilometern Leitungen und tausenden von Einzelkomponenten – und wird trotz dieser Komplexität bis heute überwiegend in Handarbeit gefertigt. Die Automatisierung dieser Fertigung ist daher ein aktives Forschungsfeld mit hoher industrieller Relevanz. Der Kabelbaum dient dabei als konkreter Anwendungsfall für eine grundlegendere Fragestellung: Wie lassen sich komplexe industrielle Fertigungsprozesse so formal und maschinenlesbar beschreiben, dass eine automatisierte Produktionsanlage diese eigenständig interpretieren und ausführen kann? Diese Fragestellung ist branchenübergreifend relevant und betrifft Domänen von der Elektronikfertigung bis zur Pharmaindustrie.

Methodisch steht die Asset Administration Shell (AAS) im Mittelpunkt – der derzeit wichtigste offene Standard für die digitale Repräsentation von Produktionsanlagen und -prozessen im Kontext von Industrie 4.0. Die Arbeit untersucht, wie Engineering-Daten (KBL, VEC, STP), digitale Fertigungsaufträge und ressourcenspezifische Informationen nach dem PPR- (Produkt-Prozess-Ressource) und CSS-Modell systematisch zu ausführbaren Prozessbeschreibungen verknüpft werden können.

Aufgabenstellung:

  • Analyse bestehender Ingenieursformate (KBL, VEC, STP) hinsichtlich ihrer Eignung zur automatisierten Prozesssteuerung
  • Strukturierung der Fertigungsschritte nach dem PPR- und CSS-Modell
  • Entwicklung und prototypische Implementierung eines AAS-Submodells „ProcessParameters”
  • Ableitung von Anforderungen an Engineering- und Ressourcendaten
  • Validierung der Methodik anhand eines konkreten Anwendungsbeispiels

Anforderungen:

  • Studium im Bereich Informatik / Maschinenbau / IPEM / WING / Mechatronik / Elektrotechnik o. Ä.
  • Interesse an Industrie-4.0-Konzepten, digitalen Zwillingen und Fertigungsautomatisierung
  • Grundkenntnisse in Softwareentwicklung oder modellbasierter Systembeschreibung von Vorteil
  • Selbstständige, strukturierte und analytische Arbeitsweise
  • Deutsch und/oder Englisch in Wort und Schrift

Bitte bewerben Sie sich mit einem aktuellen Notenspiegel und Lebenslauf an simon.lamprecht@faps.fau.de.

[BA/PA/MA] – Aufbereitung und Strukturierung industrieller Fertigungsdaten für das Training eines prozessübergreifenden World Models

Ausgangssituation:

Moderne Fertigungsprozesse erzeugen große Mengen multimodaler Maschinendaten, die das Potenzial bieten, datengetriebene Modelle für verschiedenste Anwendungsfälle wie Predictive Quality, Predictive Maintenance oder Prozessoptimierung zu trainieren. Ein vielversprechender Ansatz ist das Konzept eines World Models, das die Zusammenhänge zwischen Prozesseingangsdaten, Zielgrößen und Stellgrößen bzw. Aktionen ganzheitlich lernt. Voraussetzung dafür ist ein strukturierter, qualitativ hochwertiger Datensatz, der Maschinendaten verschiedener Modalitäten und Quellen auf Sample-Ebene mit geeigneten Ziel- und Regelgrößen verknüpft. Aktuell liegen diverse industrielle Datensätze unterschiedlicher Prozesse sowie öffentlich verfügbare industrielle Referenzdatensätze vor, die als Grundlage für ein solches Vorhaben dienen sollen.

Keywords:
Data Engineering, Datenanalyse, World Model, Predictive Quality, Predictive Maintenance, industrielle Fertigungsdaten, multimodale Daten

 

Aufgabenstellungen:

Ziel der Arbeit ist die methodische Aufbereitung, Analyse und Strukturierung heterogener industrieller Datensätze, sodass diese als Trainingsgrundlage für ein prozessübergreifendes World Model genutzt werden können. Die Aufgabenstellung umfasst die folgenden Arbeitspakete:

  • Fachliche Einarbeitung in die Themenfelder Data Engineering für industrielle Fertigungsdaten, World Models sowie relevante Anwendungsfälle (Predictive Quality, Predictive Maintenance, Prozesssteuerung)
  • Analyse, Bereinigung und ggf. Korrektur der vorliegenden Maschinendaten und Zielgrößen unterschiedlicher Modalitäten und Quellen
  • Identifikation und Extraktion geeigneter Regelgrößen aus den Maschinendaten, die als Aktionen des World Models dienen
  • Verknüpfung der Eingangsdaten (X), Aktionen (a) und Zielgrößen (y) zu einem konsistenten, strukturierten Datensatz auf Sample-Ebene
  • Entwicklung einer geeigneten Datenstruktur, die sowohl eine einfache Analyse und Visualisierung als auch ein performantes Laden für das Modelltraining ermöglicht
  • Entwicklung eines interaktiven Dashboards zur Visualisierung, Filterung und Erzeugung von Train-/Validation-/Test-Splits inkl. wählbarer Skalierungsmethoden

 

Anforderungsprofil und Informationen zur Bewerbung:

  • Interesse an datengetriebenen Methoden im industriellen Umfeld, idealerweise erste Erfahrungen im Bereich Data Engineering oder Datenanalyse
  • Hohe Motivation, Auffassungsgabe sowie strukturierte Arbeitsweise und gute Kommunikationsfähigkeiten
  • IT-Affinität und gute Kenntnisse mindestens einer Hochsprache (idealerweise Python) wünschenswert
  • Bearbeitungsbeginn ab sofort möglich
  • Umfang und Inhalte je nach Arbeit (BA/PA/MA) und Präferenzen individuell abstimmbar
  • Bewerbungen bitte mit CV und aktueller Fächer-/Notenübersicht per Mail an unten genannten Kontakt

[BA/PA/MA] Weiterentwicklung eines Sensordemonstrators zur automatisierten Erzeugung multimodaler Trainingsdaten für ein handlungsfähiges World Model

Ausgangssituation:

Am Lehrstuhl FAPS besteht ein modularer Sensordemonstrator, der im Rahmen einer Masterarbeit entwickelt und in Betrieb genommen wurde. Der Demonstrator bildet eine miniaturisierte Produktionsanlage ab und umfasst einen drehbaren Materialbereitsteller mit zwei Lagertürmen, einen pneumatischen Schwenkarm mit Vakuumgreifer, einen Bearbeitungsbereich mit Drehteller, Stempel und Kamera-basierter Qualitätskontrolle (OpenCV/ML) sowie ein Förderband mit drei Weichen zur Materialverteilung. Die Anlage wird über eine Siemens SPS (S7-1500) gesteuert und verfügt über eine Vielzahl verbauter Sensoren unterschiedlicher Modalitäten – darunter optische Abstandssensoren, kapazitive und induktive Näherungsschalter, Drucksensoren, Lichtschranken, eine Industriekamera sowie mechanische Endschalter – und pneumatischer wie elektrischer Aktoren.

Langfristiges Ziel ist es, auf Basis dieses Demonstrators ein sogenanntes World Model zu entwickeln: ein datengetriebenes Prozessmodell, das Zustände, Aktionen und deren Auswirkungen intern abbildet und so eine ganzheitliche, vorausschauende Optimierung des Betriebs ermöglicht. Um ein solches Modell trainieren zu können, wird ein geeigneter Trainingsdatensatz benötigt, der multimodal (Zeitreihen, Bilddaten etc.), domänenübergreifend (verschiedene Produkte und Prozessvarianten) und handlungsorientiert (mit expliziten Aktionen und Störungen) aufgebaut ist. Ziel dieser Arbeit ist die Erzeugung dieses Datensatzes – sowie die dafür nötige Erweiterung und Automatisierung des Demonstrators.

Keywords:
World Model, Domain Generalization, Multimodal Dataset, Sensordemonstrator, SPS, Design of Experiments, Predictive Quality, Predictive Maintenance, Anomaly Detection, Industrie 4.0

 

Aufgabenstellungen:

Ziel der Arbeit ist die systematische Erstellung eines domänenübergreifenden, multimodalen Datensatzes auf Basis des bestehenden Sensordemonstrators, der zum späteren Training eines handlungsfähigen World Models geeignet ist. Der Datensatz soll auf Sample-Ebene die Eingangsdaten aller Sensormodalitäten (X), die anwendungsfallspezifischen Labels (y; Qualität, Störung, Anomalie etc.) sowie die jeweils zugrunde liegenden Aktionen (a) zeitsynchron enthalten. Durch den Aufbau über mehrere Domänen hinweg (z. B. unterschiedliche Produkte, Maschinen oder Prozessvarianten) soll der Datensatz später ein domänenübergreifendes Lernen (Domain Generalization) ermöglichen. Darüber hinaus soll der Datensatz möglichst viele industrielle Anwendungsfälle abdecken können, darunter Predictive Quality, Predictive Maintenance und Anomaly Detection. Die Aufgabenstellung umfasst die folgenden Arbeitspakete:

  • Bestandsaufnahme: Systematische Dokumentation des Ist-Zustands des Demonstrators (verbaute Sensorik, Aktorik, SPS-Programm, Datenflüsse, bestehende Steuerungsszenarien). Identifikation der vorhandenen Sensormodalitäten (Zeitreihen, Bilddaten, binäre Signale etc.) und Bewertung der Datenlage als Grundlage für einen multimodalen Datensatz.
  • Evaluierung und Integration von Aktionen: Identifikation und Bewertung möglicher Stellgrößen, die als Aktionen in den Prozess integriert und über die SPS variiert werden können (z. B. Bandgeschwindigkeit, Stempeldruck/-dauer, Schwenkgeschwindigkeit, Drehteller-Taktung, Weichenlogik). Auswahl und Implementierung geeigneter Aktionen, sodass deren Auswirkungen auf die Sensordaten und den Prozessausgang messbar werden.
  • Konzeption und Einbringung von Störungen: Überprüfung, welche Prozessstörungen realistisch erzeugt oder simuliert werden können (z. B. Druckabfall, Sensorausfall/-degradation, Werkstückvarianz, Bandstopp). Integration ausgewählter Störszenarien in den Demonstratorbetrieb, um Trainingsdaten für Anomaly Detection und Predictive Maintenance zu generieren.
  • Domänenkonzept und Qualitätssimulation: Definition von Domänen für den Datensatz, z. B. unterschiedliche Werkstückvarianten (Material, Farbe, Geometrie) oder Prozessvarianten (Szenarien, Parameterregime). Erarbeitung eines Konzepts zur Simulation bzw. kontrollierten Erzeugung von Produktqualitätsunterschieden, um gelabelte Qualitätsdaten für Predictive Quality zu erhalten. Perspektivisch existiert eine zweite, baugleiche Demonstratorinstanz, die eine Generalisierung über Maschineninstanzen hinweg ermöglichen könnte.
  • Umrüstung, Programmierung und modulare Softwarearchitektur: notwendige Hardware-Erweiterungen sowie Anpassung/Erweiterung des SPS-Programms und der Datenerfassungs-Pipeline. Der Steuerungscode soll modular aufgebaut werden und definierte Schnittstellen bereitstellen, über die später ein trainiertes World Model eingebunden werden kann, um den Demonstrator in Echtzeit basierend auf Modellvorhersagen zu regeln.
  • Automatisierte Versuchsdurchführung (DoE): Entwicklung eines Programms, mit dem ein Design of Experiments basierend auf konfigurierbaren Eingaben (Aktionsparameter, Störszenarien, Domänen) erzeugt und automatisiert am Demonstrator durchgeführt werden kann. Das Programm soll wiederverwendbar sein, damit zu einem späteren Zeitpunkt unkompliziert weitere Daten generiert werden können.
  • Datensatzerstellung, Dokumentation und Bewertung: Durchführung der Versuchsreihe und Erstellung des strukturierten Datensatzes. Jedes Sample soll die multimodalen Sensordaten (X), die anwendungsfallspezifischen Labels (Qualität, Störung, Anomalie etc.) und die zugrunde liegenden Aktionen (a) enthalten. Dokumentation des Datensatzformats, Datenqualitätsanalyse und Diskussion der Eignung für das Training eines domänenübergreifenden, multimodalen und handlungsfähigen World Models.

 

 

Anforderungsprofil und Informationen zur Bewerbung:

  • Interesse an Automatisierungstechnik und datengetriebener Prozessoptimierung
  • Grundkenntnisse in SPS-Programmierung (idealerweise Siemens TIA Portal) oder hohe Bereitschaft zur Einarbeitung
  • Gute Programmierkenntnisse (idealerweise Python) für Datenerfassung, Versuchsautomatisierung und Schnittstellenentwicklung
  • Praktisches Geschick im Umgang mit Hardware (Sensorik, Aktorik, Pneumatik) von Vorteil
  • Idealerweise Grundverständnis von Machine Learning und Versuchsplanung (Design of Experiments)
  • Hohe Motivation, strukturierte Arbeitsweise und gute Kommunikationsfähigkeiten
  • Bearbeitungsbeginn ab sofort möglich
  • Umfang und Inhalte je nach Arbeit (BA/PA/MA) und Präferenzen individuell abstimmbar
  • Bewerbungen bitte mit CV und aktueller Fächer-/Notenübersicht per Mail an unten genannten Kontakt

Proof-of-Concept: World Models für ereignisdiskrete Produktionssimulation (optional mit Quantum-Computing-Ansatz)

Titel:
Proof-of-Concept: World Models für ereignisdiskrete Produktionssimulation (optional mit Quantum-Computing-Ansatz)

Art der Arbeit:
Studienarbeit / Projektarbeit / Masterarbeit (nach Absprache)

Hintergrund und Motivation
Ereignisdiskrete Simulation (DES) ist ein etabliertes Werkzeug zur Planung und Optimierung von Produktionssystemen, stößt aber bei umfangreichen Szenariostudien und Optimierungsaufgaben an Grenzen hinsichtlich Rechenzeit und Automatisierung. World Models aus dem Bereich des modelbasierten Reinforcement Learning ermöglichen es, dynamische Systeme als lernbasierte Surrogate abzubilden und damit Entscheidungen und Policies in einem gelernten Modell statt in der vollständigen Simulation zu optimieren. Im Rahmen dieser Arbeit soll ein Proof-of-Concept erarbeitet werden, wie World Models für eine Produktions‑DES eingesetzt werden können, welche Potenziale und Anwendungsbereiche sich daraus ableiten lassen und inwiefern sich Ansätze zur quantenbasierten Parallelisierung perspektivisch nutzen lassen.

Ziel der Arbeit
Ziel der Arbeit ist die Konzeption und Umsetzung eines Proof-of-Concept, bei dem ein World Model als Surrogate für eine ereignisdiskrete Produktionssimulation dient und zur schnellen Bewertung von Steuerungs‑ bzw. Scheduling‑Strategien eingesetzt werden kann. Darüber hinaus sollen die Potenziale (z.B. Rechenzeiteinsparung, verbesserte Policy-Optimierung, neue Analyse‑Workflows) und konkrete Anwendungsbereiche in der Produktionsplanung systematisch herausgearbeitet und bewertet werden. Optional soll untersucht werden, welche Teilaspekte (z.B. Trajektoriensuche, Policy-Evaluation) prinzipiell durch Quantum-Computing‑Ansätze parallelisiert werden könnten und wie ein entsprechendes Forschungs-Setup aussehen würde.

Aufgabenstellung (Arbeitspakete)

1. Literaturrecherche

  • Recherche zu World Models und modelbasiertem Reinforcement Learning (Dreamer, latent World Models) mit Fokus auf Produktions‑ und Simulationsanwendungen.
  • Recherche zu bestehenden Ansätzen für Surrogate‑Modelle in der Simulation sowie ersten Studien zu Quantum Reinforcement Learning und quantenbasierter Parallelisierung von Trajektorien.
  • Systematische Sichtung von Veröffentlichungen zu Potenzialen und Anwendungsfeldern von KI‑basierten Surrogates und World Models in Digitalen Zwillingen und Produktionssystemen.

2. Konzeption eines geeigneten Demonstrators

  • Auswahl und Konzeption eines geeigneten DES‑Demonstrators für ein Produktionssystem. Im Best Case wird Siemens Plant Simulation verwendet; alternativ kommen SimPy (Python) oder AnyLogic in Frage.
  • Festlegung einer kompakten Zustands‑ und Aktionsrepräsentation (State-Vector aus Queue-Längen, Maschinenzuständen, WIP etc.; Aktionen z.B. Dispatching-/Prioritätsregeln).

3. Implementierung eines World Models für DES

  • Erstellung einer Datengrundlage durch Simulationstrajektorien aus dem gewählten DES‑Tool (bevorzugt Plant Simulation, alternativ SimPy oder AnyLogic).
  • Implementierung oder Adaption eines World-Model-Ansatzes (z.B. DreamerV3‑ähnliche Architektur oder vereinfachtes latent dynamisches Modell) in Python.
  • Training und Validierung des World Models als Surrogate: Vergleich von simulierten Trajektorien und relevanten KPIs im World Model gegenüber der ursprünglichen DES.

4. Proof-of-Concept: Einsatz des World Models und Potenzialanalyse

  • Nutzung des World Models zur schnellen Bewertung von Steuerungs‑ oder Scheduling‑Strategien (z.B. durch Rollouts im gelernten Modell oder einfaches Planning).
  • Quantitative und qualitative Analyse von Rechenzeit, Genauigkeit und Generalisierungsfähigkeit über mehrere Szenarien/Varianten des Produktionssystems.
  • Herausarbeitung der Potenziale und Grenzen des Ansatzes für typische Anwendungsbereiche (z.B. Layout‑Variantenvergleich, Schicht- und Auftragsplanung, Engpass‑Management) und Ableitung von Handlungsempfehlungen.

5. Optionale Vertiefung: Quantum-Computing-Perspektive

  • Sichtung relevanter Quantum-RL‑Literatur und Identifikation von Subproblemen (z.B. Trajektoriensuche oder Policy-Evaluation), die prinzipiell für eine quantenbasierte Parallelisierung geeignet sind.
  • Konzeption eines skizzenhaften PoC‑Setups (z.B. auf Basis vorhandener Quantum‑Frameworks und kleiner Beispielumgebungen), das die Einbindung von Quantum-Computing in World-Model-basierte RL‑Ansätze demonstriert.

6. Dokumentation und Präsentation

  • Systematische Dokumentation der Methodik, Ergebnisse, Potenziale und Grenzen des Ansatzes.
  • Abschlusspräsentation der Arbeitsergebnisse am Lehrstuhl.

Voraussetzungen

  • Laufendes Studium in Maschinenbau, Mechatronik, Wirtschaftsingenieurwesen, Informatik, Data Science oder einem vergleichbaren Studiengang.
  • Grundkenntnisse in Python und Interesse an Maschinellem Lernen / Reinforcement Learning.
  • Erste Erfahrungen mit Simulation (z.B. DES, agentenbasierte Modelle oder eigene Python‑Simulationen); Erfahrung mit Plant Simulation, SimPy oder AnyLogic ist von Vorteil.
  • Selbstständige, strukturierte Arbeitsweise und Freude an forschungsnahen Fragestellungen.

Rahmenbedingungen

  • Beginn: Nach Absprache, ab sofort möglich.
  • Dauer: Entsprechend Prüfungsordnung (Studienarbeit/Projektarbeit/Masterarbeit).
  • Die Arbeit ist in aktuelle Forschungsaktivitäten im Bereich Digitaler Zwilling, Simulation und KI am Lehrstuhl FAPS eingebunden.

Betreuung und Kontakt
Ansprechpartner:
Martin Barth, M.Eng.
Lehrstuhl für Fertigungsautomatisierung und Produktionssystematik (FAPS), FAU Erlangen-Nürnberg
E-Mail: martin.barth@faps.fau.de

Bitte senden Sie Ihre Bewerbung mit kurzem Motivationsschreiben, Lebenslauf und aktuellem Notenspiegel per E‑Mail an martin.barth@faps.fau.de

BA/PA/MA: Neuartiges Bein für humanoide Roboter

Humanoide Roboter werden zunehmend für vielfältige Anwendungen in Industrie, Service und Forschung eingesetzt. Zur Bewegung der Gelenke kommen derzeit überwiegend Getriebemotoren zum Einsatz. Diese stoßen jedoch bei den für humanoide Systeme typischen dynamischen Belastungen an ihre Grenzen. Insbesondere die beim Laufen auftretenden Stoßbelastungen führen dazu, dass konventionelle Gelenkgetriebe nur bedingt dauerhaft geeignet sind. In der Praxis resultiert dies in erhöhtem Verschleiß und häufigen Austauschzyklen der Getriebe, was wiederum unerwünschte Stillstandszeiten verursacht.
Am FAPS wird daher ein alternatives Bein für humanoide Roboter entwickelt, das auf Seilen basiert. Im Fokus stehen Tensegrity-Strukturen, die aufgrund ihrer nachgiebigen und lastverteilenden Eigenschaften in der Lage sind, Kraftspitzen bei Stoßbelastungen signifikant zu reduzieren und so die mechanischen Komponenten des Roboters zu schützen.
Ziel ist es, einen funktionsfähigen Beitrag zur Entwicklung eines robusteren, stoßtoleranten Beinmoduls für humanoide Roboter zu leisten und damit die Betriebssicherheit sowie die Lebensdauer der Systeme zu erhöhen.

Mögliche Aufgabenstellungen
Im Rahmen einer studentischen Arbeit können unter anderem folgende Themen bearbeitet werden:

  • Aufbau und Inbetriebnahme eines Demonstrators
  • Entwicklung und Integration der Aktorik
  • Konzeption und Implementierung der Steuerung
  • Konstruktive Weiterentwicklung des Systems, insbesondere
    • Geometrieoptimierung
    • Auslegung und Dimensionierung
    • Festigkeits- und Strukturanalysen

Anforderungsprofil

  • Engagement und Initiative bei der Umsetzung von Aufgaben
  • Gute Kenntnisse in Mechanik und Maschinenbau
  • Erfahrung in Konstruktion und Umgang mit CAD
  • Interesse an Tensegrity-Strukturen, seilbasierten Systemen und Robotik
  • Selbstständige, strukturierte und sorgfältige Arbeitsweise
  • Sehr gute Deutsch- und Englischkenntnisse

Hinweise zur Bewerbung

  • Beginn ist jederzeit möglich
  • Bewerbungen bitte per E-Mail mit aktuellem Lebenslauf und Notenübersicht senden (unvollständige Bewerbungen werden nicht berücksichtigt)
  • BA/PA/MA möglich

[BA/PA/MA] Weiterentwicklung eines Closed-Loop-Prozesses in der roboterbasierten Montage von Wallboxen

Das Projekt Restladung zielt darauf ab, Herausforderungen im Elektromobilitätssektor, insbesondere die ungleichmäßige Nutzung dreiphasiger
Stromversorgung, zu bewältigen. Daher steht die Entwicklung einer hocheffizienten und kostengünstigen DC-Wallbox im Mittelpunkt.
Das Teilprojekt des FAPS fokussiert neben dem automatisierungsgerechten Produktdesign insbesondere die hochpräzise Montage der
Leistungselektronik in das Gehäuse. Besondere Berücksichtigung gilt demnach der optimalen Wärmekopplung beider Komponenten durch den Einsatz
von 3D-Kameratechnik. Es werden der Einfluss von Fertigungs- und Montagetoleranzen auf das Kühlverhalten analysiert und zur Optimierung der
Wärmeleitung ein Prozess des flexiblen Toleranzausgleichs mittels adaptiven Auftrages von wärmeleitfähigen Substanzen erarbeitet und im
Zusammenspiel mit einem darauffolgenden Schraubprozesses prototypisch untersucht.

Aufgabenstellung:

  • Weiterentwicklung und Optimierung des SPS-Programms
  • Integration und Auswahl geeigneter Sensorik und Aktorik
  • Auswertung der 3D-Kamera Bilddaten und Nutzung neuer Algorithmen
  • Untersuchung eines aktiven Toleranzausgleichs mithilfe der Schraub- und Dosierparameter
  • Untersuchung von mechanischen Verhalten und Einflüssen in der Platinenmontage

Anforderungen:

  • Studium im Bereich Maschinenbau / IPEM / WING / Mechatronik / Elektrotechnik o.Ä.
  • Technisches Geschick und Bereitschaft, sich in neue Technologien einzuarbeiten
  • Hohe Motivation, Neugierde sowie eine selbständige und strukturierte Arbeitsweise
  • Deutsch in Wort und Schrift

Bitte bewerben Sie sich mit einem aktuellen Notenspiegel und Lebenslauf.