Index

Entwicklung und Evaluation einer integrierten Softwarepipeline für die freihändige multimodale Ultraschalldatenerfassung

Die freihändige 3D-Rekonstruktion von Ultraschall- und Elastographiedaten erfordert eine zuverlässige Erfassung, Synchronisation und Verarbeitung mehrerer Datenströme. In einem Forschungsprojekt wurde hierfür eine Python-basierte Scan-Pipeline aufgebaut, die jedoch aktuell aus mehreren separaten Skripten besteht und stark von manuellem Bedienwissen abhängt. Dies erschwert die reproduzierbare Durchführung von Messungen und die Weiterentwicklung des Systems.

Ziel dieser Arbeit ist es, die bestehende Pipeline in eine konsistente und bedienbare Softwarelösung zu überführen. Dazu sollen bestehende Komponenten analysiert, geeignete Softwarestrukturen entwickelt und die einzelnen Verarbeitungsschritte in einem robusten Workflow zusammengeführt werden. Die resultierende Lösung soll die Nutzung des Systems vereinfachen und gleichzeitig die Grundlage für standardisierte experimentelle Untersuchungen schaffen.

Inhalte:

  • Analyse und Dokumentation der bestehenden Python-basierten Scan-Pipeline
  • Identifikation kritischer manueller Prozessschritte und softwaretechnischer Schwachstellen
  • Entwurf einer modularen Architektur zur Integration der bestehenden Komponenten
  • Implementierung einer zentralen Steuerung für Datenerfassung, Synchronisation und Vorverarbeitung
  • Entwicklung von Mechanismen für Logging, Konfigurationsverwaltung und Fehlerdiagnose
  • Experimentelle Evaluation der Pipeline hinsichtlich Stabilität, Bedienbarkeit und Reproduzierbarkeit

Voraussetzungen:

  • Interesse an Softwareentwicklung im Kontext medizintechnischer Forschungssysteme
  • Gute Kenntnisse in Python
  • Erfahrung mit modularer Softwareentwicklung, Datenverarbeitung oder Automatisierung von Vorteil
  • Kenntnisse in Git, GUI-Frameworks oder experimentellen Softwaresystemen wünschenswert
  • Selbstständige und strukturierte Arbeitsweise

Bewerbung: Interessierte Studierende senden ihre Bewerbung mit aktueller Notenübersicht und Lebenslauf per E-Mail.

Beginn: ab sofort

Prototyp einer self-managed Multi-Cluster-Architektur für die Edge (BA/PA/MA)

Der Einsatz von Edge Computing gewinnt in vielen Bereichen an Bedeutung, da er die Datenverarbeitung näher an den Ort der Datenentstehung verlagert und damit Latenzen, Bandbreitenbedarf sowie Abhängigkeiten von Cloud-Verbindungen reduziert. Gleichzeitig steigen die Anforderungen an Automatisierung, Lifecycle Management und Fleet Operations, weil Edge-Knoten oft heterogen sind, in instabilen Netzen laufen und nur eingeschränkt an verteilten Ort gewartet werden können.

Ziel dieser studentischen Arbeit ist der Aufbau und die prototypische Evaluation einer self-managed Edge-Kubernetes-Referenzarchitektur (hub-and-spoke), die zunächst virtuelle Edge Devices (VMs auf Proxmox VE und/oder OpenStack) nutzt und später auf dedizierte Hardware übertragbar ist. Im Fokus steht eine reproduzierbare Day-0 Provisioning Pipeline via (i)PXE boot sowie first-boot configuration mit cloud-init und Ignition/Combustion (optional unter Nutzung von Matchbox). Darauf aufbauend sollen mehrere Linux- und Kubernetes-Cluster-Varianten automatisiert gestartet und zentral mit GitOps sowie Fleet-style Multi-Cluster Rollout verwaltet werden.

(Mögliche) Schwerpunkte der Arbeit:

  • Design & Implementierung einer hub-and-spoke Referenzarchitektur für self-managed Edge Kubernetes (Management Cluster + Edge Spokes).
  • Provisioning Pipeline: Klassisches (i)PXE, darauf aufbauendes Netboot mittels HTTPBoot via UEFI or U-Boot oder je nach BMC auch IPMI/Redfish, Profilverwaltung (optional Matchbox) und Konfiguration via Ignition/Combustion/cloud-init. Parallel dazu Lifecycle Management mittels Cluster API und entsprechendem Provider (z.B. CAPM3 (Metal³ im Falle OpenStack Ironic) oder CAPT (Tinkerbell im Falle von einfachem iPXE/Netboot))
  • Definition von stabilen Cluster-Profilen (z.B. Talos Linux, openSUSE Leap Micro + k3s, Ubuntu + MicroK8s oder Debian + k0s) inkl. automatisiertem Bootstrap und Re-Provisioning (replaceable nodes).
  • GitOps-gestützte Baseline: Standardisierte Installation von Add-ons (z. B. Longhorn, Ingress, Observability) über Argo CD oder Flux.
  • Persistence & Registry Integration: Longhorn als persistence storage, Deployment-Pipeline über GitLab CI/CD, GitLab Container Registry, Harbor als Proxy Cache und Replication Bridge / Pull-Through Cache (ggf. zunächst lediglich GitLab Dependency Proxy für Docker Hub) und optional K3s Spegel.
  • Dokumentation & Demonstrator: Nachvollziehbare Architektur-/Betriebsdokumentation, IaC/Automation in einem Git-Repository sowie eine Demo-Umgebung als Testbed für Forschung/Lehre.

Ausblick auf darauf aubauende Arbeiten:

  • Erweiterung des Lifecycle Managements um Foreman und Katello.
  • Fleet-style Multi-Cluster Rollout: Vergleich und Bewertung von Rancher Fleet, Argo CD ApplicationSet und Flux (optional Open Cluster Management (OCM) / Karmada) anhand definierter Kriterien (Drift, Skalierbarkeit, Multi-tenancy, Offline-Toleranz, Usability usw.).
  • Integration und Reifegradbewertung von KubeEdge/OpenYurt oder LF Edge Komponenten (FIDO Device Onboard, EVE-OS, EdgeX Foundry) im Rahmen der bestehenden Architektur.

Wenn die ausgeschriebene Arbeit noch online ist, dann ist sie auch noch aktuell. Sollten Sie Interesse an der Arbeit haben, so kommen Sie bitte mittels einer E-Mail (in der Sie kurz Ihr Vorwissen darstellen) auf mich zu. Sollten Sie eine intrinsische Motivation für ein angrenzendes oder ähnlichen Thema haben, so stellen Sie in Ihrer Anfrage bitte den Bezug zu meiner Ausschreibung dar.

Bitte stellen Sie die komplette Anfrage in deutscher Sprache, auch wenn Sie die Ausarbeitung in Englisch verfassen werden. Hintergrund ist, dass Sie sich in laufende Forschungsprojekte einbringen mit den Unternehmen austauschen können sollen und von diesen wird mehrheitlich eine Kommunikation auf Deutsch gewünscht.

Weitere Informationen erhalten Sie auf Anfrage, der Arbeitsumfang kann entsprechend der Arbeit angepasst werden und die Bearbeitung weitestgehend im Home-Office stattfinden.

Realisierung eines Mixed-SBC-Clusters für die Edge (BA/PA/MA)

Der Einsatz von Edge Computing gewinnt in vielen Bereichen an Bedeutung, da er die Datenverarbeitung näher an den Ort der Datenentstehung verlagert und damit Latenzen, Bandbreitenbedarf sowie Abhängigkeiten von Cloud-Verbindungen reduziert. Ein Mixed-SBC-Cluster, der verschiedene Single Board Computer (SBC) wie Nvidia Jetson, Raspberry Pi und verschiedene Hardwareerweiterungen umfasst, bietet eine ausgezeichnete Plattform, um die Herausforderungen und Möglichkeiten des Edge Computings zu erproben und zu demonstrieren.

Ziel ist die Entwicklung eines Mixed-SBC-Clusters für die Edge, der als experimentelle Plattform in industrienaher Forschung und für Lehrzwecke im Automatisierungsumfeld dient. Dieser Cluster soll die Heterogenität realer OT-Infrastrukturen bedienen und das Sammeln praktischer Erfahrungen mit Cluster-Management, verteilten Speichersystemen und der Integration von Erweiterungsmodulen (z.B. Funkmodul, Neural Processing Unit und Field Programmable Gate Array) eröffnen.

(Mögliche) Schwerpunkte der Arbeit:

  • Aufbau und Konfiguration eines heterogenen SBC-Clusters für Edge Computing Szenarien.
  • Einsatz eines Cluster-Management-Systems und Implementierung eines Service Mesh.
  • Einsatz von Automatisierungswerkzeugen und Infrastruktur-as-Code (IaC) zur effizienten Verwaltung und Konfiguration.
  • Implementierung eines Lifecycle-Managements des Betriebs bestehend aus Monitoring, Sicherung, Wartung und Aktualisierung.
  • Integration von Storage-Lösungen und spezifischen Erweiterungsmodulen für verschiedene Anwendungsfälle.
  • Integration in Anwendungsfälle der Automatisierungstechnik in industriellen Produktionsanlagen, der Gebäudeautomatisierung und insbesondere des Energiemanagements.
  • Beitrag zum Transfer in die Lehre als Praktikumsversuch oder Übungseinheit

Wenn die ausgeschriebene Arbeit noch online ist, dann ist sie auch noch aktuell. Sollten Sie Interesse an der Arbeit haben, so kommen Sie bitte mittels einer E-Mail (in der Sie kurz Ihr Vorwissen darstellen) auf mich zu. Sollten Sie eine intrinsische Motivation für ein angrenzendes oder ähnlichen Thema haben, so stellen Sie in Ihrer Anfrage bitte den Bezug zu meiner Ausschreibung dar.

Bitte stellen Sie die komplette Anfrage in deutscher Sprache, auch wenn Sie die Ausarbeitung in Englisch verfassen werden. Hintergrund ist, dass Sie sich in laufende Forschungsprojekte einbringen mit den Unternehmen austauschen können sollen und von diesen wird mehrheitlich eine Kommunikation auf Deutsch gewünscht.

Weitere Informationen erhalten Sie auf Anfrage, der Arbeitsumfang kann entsprechend der Arbeit angepasst werden und die Bearbeitung weitestgehend im Home-Office stattfinden.

Intelligente Prozessoptimierung beim Richten von Flachdraht für elektrische Antriebe [BA/PA/MA]

Hintergrund
Die Fertigung elektrischer Antriebe, wie etwa Hairpin-, Continuous-Hairpin- oder Axialflussmaschinen, erfordert eine präzise Kontrolle von Material und Prozess. Ein zentraler Schritt ist das Richten von Flachdraht, das bislang auf festen Parametern und Erfahrungswissen basiert. Dabei werden Schwankungen im Material nur unzureichend berücksichtigt. Das Ziel besteht darin, diesen Prozess mithilfe moderner Sensorik, Messtechnik und innovativer Regelungsansätze weiterzuentwickeln, um die Produktionsqualität effizient zu steigern.

 

Mögliche Aufgabenstellungen
Studentische Arbeiten können zu einem der folgenden Themen erarbeitet werden:

  • Integration und Validierung eines Wirbelstromprüfsystems zur Analyse von Eigenspannungen beim Richten von Flachdraht.
  • Integration eines induktiven Abstandssensors zur Schichtdickenmessung
  • Erweiterung der prototypischen Versuchsanlage um Sicherheitstechnik
  • Modellierung und Simulation des Richtprozesses
  • Weiterentwicklung einer flexiblen, mechanischen Abisolierstation für Flachdraht
  • SPS-Programmierung einer Schwenkbiege-Anlage zum 2D-Biegen von Flachdraht

Die detaillierten Inhalte und Aufgabenstellungen werden in einem persönlichen Gespräch besprochen.

 

Anforderungsprofil

  • Interesse an der Produktion elektrischer Traktionsantriebe
  • Je nach Themengebiet sind Grundkenntnisse in Konstruktion, Messtechnik, Programmierung, Datenanalyse (KI/ML) oder Regelungstechnik erforderlich.
  • Freude an praktischer Arbeit (Versuchsreihen, Messtechnik, Anlagenaufbau)
  • Analytisches, strukturiertes und selbstständiges Arbeiten
  • Teamfähigkeit und Kommunikationsstärke
  • Gute Deutsch- und Englischkenntnisse in Wort und Schrift

 

Bewerbung
Bitte senden Sie Ihre Bewerbung mit

  • Lebenslauf
  • Aktuellem Notenspiegel
  • Angabe der bevorzugten Aufgabenstellung

per E-Mail an anja.preitschaft@faps.fau.de

Wichtig: Bewerbungen ohne konkrete Nennung eines Themenbereichs können leider nicht bearbeitet werden.

Analyse und Bewertung von Aluminium-Flachdraht für Hairpin-Statoren – Systematische Literaturrecherche [BA/PA/MA]

Motivation

Im Zuge der Transformation der Mobilität gewinnen elektrische Traktionsantriebe zunehmend an Bedeutung. Besonders die Hairpin-Technologie hat sich in der industriellen Serienfertigung von Elektromotoren etabliert, da sie hohe Leistungsdichten und eine gute Automatisierbarkeit ermöglicht. In konventionellen Hairpin-Statoren werden überwiegend Kupferflachleiter eingesetzt.

Vor dem Hintergrund steigender Rohstoffpreise, Gewichtseinsparungen sowie Nachhaltigkeitsaspekten rückt jedoch der Einsatz alternativer Leiterwerkstoffe – insbesondere Aluminium – verstärkt in den Fokus von Forschung und Industrie. Aluminium-Flachdraht bietet potenzielle Vorteile hinsichtlich Kosten und Gewicht, stellt jedoch gleichzeitig neue Herausforderungen für Fertigungsprozesse, Verbindungstechnologien sowie elektrische und thermische Eigenschaften dar.

Ziel dieser studentischen Arbeit ist daher eine systematische Literaturrecherche und Analyse des aktuellen Stands der Technik zu Aluminium-Flachdraht in Hairpin-Statoren sowie die Identifikation von Forschungs- und Entwicklungsbedarfen entlang der Prozesskette der Statorfertigung.

Mögliche Aufgabenstellungen

Im Rahmen der Arbeit sollen wissenschaftliche Veröffentlichungen, Patente und industrielle Ansätze analysiert und strukturiert ausgewertet werden. Mögliche Schwerpunkte sind:

  • Systematische Literaturrecherche zu Aluminium-Flachleitern für elektrische Traktionsmaschinen
  • Analyse des aktuellen Stands der Technik von Hairpin-Statoren und der verwendeten Leiterwerkstoffe
  • Untersuchung der elektrischen, thermischen und mechanischen Eigenschaften von Aluminium im Vergleich zu Kupfer
  • Bewertung der Auswirkungen auf Fertigungsprozesse, zum Beispiel
    • Drahtziehen und Richtprozesse
    • Biegeprozesse von Hairpins
    • Kontaktierungs- und Verbindungstechnologien (z. B. Schweißen, Crimpen, Löten)
  • Analyse möglicher Isolations- und Beschichtungssysteme für Aluminiumleiter
  • Strukturierte Aufbereitung der Ergebnisse und Identifikation von Forschungslücken
  • Ökonomische und ökologische Bewertung des Einsatzes von Aluminiumleitern
  • Ableitung von Handlungsempfehlungen für zukünftige Forschungsarbeiten

Anforderungsprofil

  • Studium im Bereich Maschinenbau, Mechatronik, Elektrotechnik, Wirtschaftsingenieurwesen oder verwandter Studiengänge
  • Interesse an elektrischen Antrieben und deren Fertigungstechnologien
  • Grundkenntnisse in Werkstoffkunde, Elektromaschinenbau oder Produktionstechnik von Vorteil
  • Interesse an wissenschaftlicher Recherche und Analyse
  • Selbstständige, strukturierte und sorgfältige Arbeitsweise
  • Gute Deutsch- und Englischkenntnisse in Wort und Schrift

 

Bewerbung

Bei Interesse senden Sie bitte Ihre Bewerbung mit:

  • Lebenslauf
  • aktuellem Notenspiegel

per E-Mail an anja.preitschaft@faps.fau.de

Siemens AG [BA/MA Extern]: Entwicklung einer Methodik zur effizienten Generierung von Trainingsdaten für Vision Language Action (VLA) Modell-basierte Robotermanipulation

Ausgangssituation:

Vision Language Action (VLA)-Modell- und World-Modell-basierte Ansätze versprechen einen Paradigmenwechsel beim Training von Robotersystemen für komplexe Manipulationsaufgaben mit variablen Randbedingungen. Eine wesentliche Herausforderung ist jedoch der enorme Datenbedarf, insbesondere die Generierung hochwertiger Trainingsdaten. Die oft als optimal angesehene Datenerfassung durch direkte Teleoperation des Endsystems ist extrem zeit- und kostenintensiv sowie durch menschliche Fähigkeiten limitiert. Simulationsbasierte Daten leiden wiederum oft unter mangelnder Übertragbarkeit auf reale Systeme. Es besteht ein dringender Bedarf, effizientere Wege zur Trainingsdatenerfassung für VLA-basierte Systeme im industriellen Umfeld zu finden und zu evaluieren.

Zielsetzung:

Ziel dieser Arbeit ist die Entwicklung einer Methodik zur effizienten Generierung von Trainingsdaten für VLA-basierte Robotersysteme in einem industriellen Fertigungsumfeld. Im Rahmen der Arbeit sollen verschiedene Ansätze zur Datengenerierung wie simulationsbasierte Daten, Lernen aus First-Person-View-Videos und Mischformen implementiert, analysiert und deren Einsetzbarkeit sowie Effektivität bewertet werden. Hieraus soll abschließend eine Methodik abgeleitet werden, die die effiziente Datenerzeugung für industrialisierbare VLA-basierte Ansätze ermöglicht.

Aufgabenschwerpunkte & Arbeitspakete:
  • Einarbeitung in den Stand der Technik zu VLA-Modellen, Trainingsdatengenerierung und industrieller Robotik
  • Strukturierte Literaturrecherche zu bestehenden Ansätzen zur Trainingsdatengenerierung sowie zu relevanten Benchmarks zur Bewertung der Effektivität verschiedener Datenerfassungsmethoden
  • Umsetzung und Analyse der Einsetzbarkeit verschiedener Trainingsdatenerfassungsansätze in industriellen Prozessen
  • Durchführung eines strukturierten Versuchsplans zur Erfassung von Trainingsdaten aus unterschiedlichen Quellen und anschließendes Finetuning eines VLA-Modells mit verschiedenen Datensätzen für einen exemplarischen Prozess
  • Vergleich der erzielten Ergebnisse und Untersuchung des Einflusses verschiedener Datenmischstrategien auf die Modellperformanz
  • Ableitung einer Methodik zur effizienten Generierung von Trainingsdaten für VLA-modellbasierte Robotermanipulation
  • Strukturierte Dokumentation der Arbeit und Präsentation der Ergebnisse

Vorkenntnisse:

  • Interesse an industrieller Robotik und künstlicher Intelligenz
  • Grundlegende Programmierkenntnisse in Python von Vorteil, aber nicht erforderlich
  • Sehr gute Deutsch- und Englisch-Kenntnisse

Der Arbeitsumfang kann entsprechend der Art der Abschlussarbeit angepasst werden.

Bewerbungen ausschließlich per E-Mail mit aussagekräftigen Unterlagen (Lebenslauf, vollständige Notenübersicht)

Entwicklung einer Methodik zur Prozessbeschreibung für die automatisierte Fertigung von Kabelbäumen

Jedes moderne Fahrzeug enthält einen Kabelbaum mit bis zu mehreren Kilometern Leitungen und tausenden von Einzelkomponenten – und wird trotz dieser Komplexität bis heute überwiegend in Handarbeit gefertigt. Die Automatisierung dieser Fertigung ist daher ein aktives Forschungsfeld mit hoher industrieller Relevanz. Der Kabelbaum dient dabei als konkreter Anwendungsfall für eine grundlegendere Fragestellung: Wie lassen sich komplexe industrielle Fertigungsprozesse so formal und maschinenlesbar beschreiben, dass eine automatisierte Produktionsanlage diese eigenständig interpretieren und ausführen kann? Diese Fragestellung ist branchenübergreifend relevant und betrifft Domänen von der Elektronikfertigung bis zur Pharmaindustrie.

Methodisch steht die Asset Administration Shell (AAS) im Mittelpunkt – der derzeit wichtigste offene Standard für die digitale Repräsentation von Produktionsanlagen und -prozessen im Kontext von Industrie 4.0. Die Arbeit untersucht, wie Engineering-Daten (KBL, VEC, STP), digitale Fertigungsaufträge und ressourcenspezifische Informationen nach dem PPR- (Produkt-Prozess-Ressource) und CSS-Modell systematisch zu ausführbaren Prozessbeschreibungen verknüpft werden können.

Aufgabenstellung:

  • Analyse bestehender Ingenieursformate (KBL, VEC, STP) hinsichtlich ihrer Eignung zur automatisierten Prozesssteuerung
  • Strukturierung der Fertigungsschritte nach dem PPR- und CSS-Modell
  • Entwicklung und prototypische Implementierung eines AAS-Submodells „ProcessParameters”
  • Ableitung von Anforderungen an Engineering- und Ressourcendaten
  • Validierung der Methodik anhand eines konkreten Anwendungsbeispiels

Anforderungen:

  • Studium im Bereich Informatik / Maschinenbau / IPEM / WING / Mechatronik / Elektrotechnik o. Ä.
  • Interesse an Industrie-4.0-Konzepten, digitalen Zwillingen und Fertigungsautomatisierung
  • Grundkenntnisse in Softwareentwicklung oder modellbasierter Systembeschreibung von Vorteil
  • Selbstständige, strukturierte und analytische Arbeitsweise
  • Deutsch und/oder Englisch in Wort und Schrift

Bitte bewerben Sie sich mit einem aktuellen Notenspiegel und Lebenslauf an simon.lamprecht@faps.fau.de.

[BA/PA/MA] – Aufbereitung und Strukturierung industrieller Fertigungsdaten für das Training eines prozessübergreifenden World Models

Ausgangssituation:

Moderne Fertigungsprozesse erzeugen große Mengen multimodaler Maschinendaten, die das Potenzial bieten, datengetriebene Modelle für verschiedenste Anwendungsfälle wie Predictive Quality, Predictive Maintenance oder Prozessoptimierung zu trainieren. Ein vielversprechender Ansatz ist das Konzept eines World Models, das die Zusammenhänge zwischen Prozesseingangsdaten, Zielgrößen und Stellgrößen bzw. Aktionen ganzheitlich lernt. Voraussetzung dafür ist ein strukturierter, qualitativ hochwertiger Datensatz, der Maschinendaten verschiedener Modalitäten und Quellen auf Sample-Ebene mit geeigneten Ziel- und Regelgrößen verknüpft. Aktuell liegen diverse industrielle Datensätze unterschiedlicher Prozesse sowie öffentlich verfügbare industrielle Referenzdatensätze vor, die als Grundlage für ein solches Vorhaben dienen sollen.

Keywords:
Data Engineering, Datenanalyse, World Model, Predictive Quality, Predictive Maintenance, industrielle Fertigungsdaten, multimodale Daten

 

Aufgabenstellungen:

Ziel der Arbeit ist die methodische Aufbereitung, Analyse und Strukturierung heterogener industrieller Datensätze, sodass diese als Trainingsgrundlage für ein prozessübergreifendes World Model genutzt werden können. Die Aufgabenstellung umfasst die folgenden Arbeitspakete:

  • Fachliche Einarbeitung in die Themenfelder Data Engineering für industrielle Fertigungsdaten, World Models sowie relevante Anwendungsfälle (Predictive Quality, Predictive Maintenance, Prozesssteuerung)
  • Analyse, Bereinigung und ggf. Korrektur der vorliegenden Maschinendaten und Zielgrößen unterschiedlicher Modalitäten und Quellen
  • Identifikation und Extraktion geeigneter Regelgrößen aus den Maschinendaten, die als Aktionen des World Models dienen
  • Verknüpfung der Eingangsdaten (X), Aktionen (a) und Zielgrößen (y) zu einem konsistenten, strukturierten Datensatz auf Sample-Ebene
  • Entwicklung einer geeigneten Datenstruktur, die sowohl eine einfache Analyse und Visualisierung als auch ein performantes Laden für das Modelltraining ermöglicht
  • Entwicklung eines interaktiven Dashboards zur Visualisierung, Filterung und Erzeugung von Train-/Validation-/Test-Splits inkl. wählbarer Skalierungsmethoden

 

Anforderungsprofil und Informationen zur Bewerbung:

  • Interesse an datengetriebenen Methoden im industriellen Umfeld, idealerweise erste Erfahrungen im Bereich Data Engineering oder Datenanalyse
  • Hohe Motivation, Auffassungsgabe sowie strukturierte Arbeitsweise und gute Kommunikationsfähigkeiten
  • IT-Affinität und gute Kenntnisse mindestens einer Hochsprache (idealerweise Python) wünschenswert
  • Bearbeitungsbeginn ab sofort möglich
  • Umfang und Inhalte je nach Arbeit (BA/PA/MA) und Präferenzen individuell abstimmbar
  • Bewerbungen bitte mit CV und aktueller Fächer-/Notenübersicht per Mail an unten genannten Kontakt

Simulative und praktische Bestimmung des thermo-mechanischen Verzugs bei der additiven Metallisierung keramischer Substrate

Ausgangssituation:

Einen vielversprechenden Ansatz zur additiven, ressourcen- und energieschonenden Herstellung leistungselektronischer Baugruppen bietet das selektive Laserstrahlschmelzen (SLM) von auf keramischen Substraten aufgebrachten Metallpulvern zur Funktionalisierung des Schaltungsträgers. Die Kombination der Vorteile des Laserstrahls, wie dem gezielten Energieeintrag oder der feinen Strukturbreite und der einfachen Handhabung, ermöglichen eine Flexibilisierung der Leiterbildstruktur, Minimierung der Strukturfeinheiten bei gleichzeitiger Option großflächige Strukturen zu generieren und birgt darüber hinaus die Möglichkeit einer 2,5D Funktionalisierung. Bei der Metallisierung von keramischen Substraten durch den laserbasierten Aufbau von Pulver gibt es allerdings auch technologische Hürden wie die Rissbildung in der Keramik in Folge der hohen thermischen Gradienten oder der Verzug des keramischen Grundmaterials.

Aufgabenstellung:

In der Arbeit soll der Bauteilverzug anhand von thermo-mechanischen Finite-Elemente-Analysen in Ansys-Workbench modelliert und parametriert simuliert werden. Der Verzug soll anschließend in praktischen Studien mit verfügbarer Anlagentechnik am Lehrstuhl validiert und zur Verbesserung des Modells genutzt werden. Die Untersuchungen sollen in einer Handlungsempfehlung zur doppelseitigen Metallisierung von keramischen Substraten mittels SLM basierend auf den Untersuchungen abgeleitet werden.

  • Recherche zur thermo-mechanischen Modellbildung des selektiven Laserschmelzen mittels Ansys Workbench
  • Weiterentwicklung bestehender Modelle, v. a. hinsichtlich
    • Diskretisierung in Raum und Zeit
    • Thermischer und mechanischer Randbedingungen
    • Materialmodellen zur Berücksichtigung nicht-linearer Zusammenhänge
  • Durchführung von Simulationsstudien
  • Validierung und Modelloptimierung anhand experimenteller Untersuchungen
  • Dokumentation der Arbeit

Bewerbung:

Bitten wenden Sie sich bei Interesse mit kurzem Lebenslauf und vollständiger Notenübersicht per Mail an christoph.hecht@faps.fau.de.

[BA/PA/MA] Weiterentwicklung eines Sensordemonstrators zur automatisierten Erzeugung multimodaler Trainingsdaten für ein handlungsfähiges World Model

Ausgangssituation:

Am Lehrstuhl FAPS besteht ein modularer Sensordemonstrator, der im Rahmen einer Masterarbeit entwickelt und in Betrieb genommen wurde. Der Demonstrator bildet eine miniaturisierte Produktionsanlage ab und umfasst einen drehbaren Materialbereitsteller mit zwei Lagertürmen, einen pneumatischen Schwenkarm mit Vakuumgreifer, einen Bearbeitungsbereich mit Drehteller, Stempel und Kamera-basierter Qualitätskontrolle (OpenCV/ML) sowie ein Förderband mit drei Weichen zur Materialverteilung. Die Anlage wird über eine Siemens SPS (S7-1500) gesteuert und verfügt über eine Vielzahl verbauter Sensoren unterschiedlicher Modalitäten – darunter optische Abstandssensoren, kapazitive und induktive Näherungsschalter, Drucksensoren, Lichtschranken, eine Industriekamera sowie mechanische Endschalter – und pneumatischer wie elektrischer Aktoren.

Langfristiges Ziel ist es, auf Basis dieses Demonstrators ein sogenanntes World Model zu entwickeln: ein datengetriebenes Prozessmodell, das Zustände, Aktionen und deren Auswirkungen intern abbildet und so eine ganzheitliche, vorausschauende Optimierung des Betriebs ermöglicht. Um ein solches Modell trainieren zu können, wird ein geeigneter Trainingsdatensatz benötigt, der multimodal (Zeitreihen, Bilddaten etc.), domänenübergreifend (verschiedene Produkte und Prozessvarianten) und handlungsorientiert (mit expliziten Aktionen und Störungen) aufgebaut ist. Ziel dieser Arbeit ist die Erzeugung dieses Datensatzes – sowie die dafür nötige Erweiterung und Automatisierung des Demonstrators.

Keywords:
World Model, Domain Generalization, Multimodal Dataset, Sensordemonstrator, SPS, Design of Experiments, Predictive Quality, Predictive Maintenance, Anomaly Detection, Industrie 4.0

 

Aufgabenstellungen:

Ziel der Arbeit ist die systematische Erstellung eines domänenübergreifenden, multimodalen Datensatzes auf Basis des bestehenden Sensordemonstrators, der zum späteren Training eines handlungsfähigen World Models geeignet ist. Der Datensatz soll auf Sample-Ebene die Eingangsdaten aller Sensormodalitäten (X), die anwendungsfallspezifischen Labels (y; Qualität, Störung, Anomalie etc.) sowie die jeweils zugrunde liegenden Aktionen (a) zeitsynchron enthalten. Durch den Aufbau über mehrere Domänen hinweg (z. B. unterschiedliche Produkte, Maschinen oder Prozessvarianten) soll der Datensatz später ein domänenübergreifendes Lernen (Domain Generalization) ermöglichen. Darüber hinaus soll der Datensatz möglichst viele industrielle Anwendungsfälle abdecken können, darunter Predictive Quality, Predictive Maintenance und Anomaly Detection. Die Aufgabenstellung umfasst die folgenden Arbeitspakete:

  • Bestandsaufnahme: Systematische Dokumentation des Ist-Zustands des Demonstrators (verbaute Sensorik, Aktorik, SPS-Programm, Datenflüsse, bestehende Steuerungsszenarien). Identifikation der vorhandenen Sensormodalitäten (Zeitreihen, Bilddaten, binäre Signale etc.) und Bewertung der Datenlage als Grundlage für einen multimodalen Datensatz.
  • Evaluierung und Integration von Aktionen: Identifikation und Bewertung möglicher Stellgrößen, die als Aktionen in den Prozess integriert und über die SPS variiert werden können (z. B. Bandgeschwindigkeit, Stempeldruck/-dauer, Schwenkgeschwindigkeit, Drehteller-Taktung, Weichenlogik). Auswahl und Implementierung geeigneter Aktionen, sodass deren Auswirkungen auf die Sensordaten und den Prozessausgang messbar werden.
  • Konzeption und Einbringung von Störungen: Überprüfung, welche Prozessstörungen realistisch erzeugt oder simuliert werden können (z. B. Druckabfall, Sensorausfall/-degradation, Werkstückvarianz, Bandstopp). Integration ausgewählter Störszenarien in den Demonstratorbetrieb, um Trainingsdaten für Anomaly Detection und Predictive Maintenance zu generieren.
  • Domänenkonzept und Qualitätssimulation: Definition von Domänen für den Datensatz, z. B. unterschiedliche Werkstückvarianten (Material, Farbe, Geometrie) oder Prozessvarianten (Szenarien, Parameterregime). Erarbeitung eines Konzepts zur Simulation bzw. kontrollierten Erzeugung von Produktqualitätsunterschieden, um gelabelte Qualitätsdaten für Predictive Quality zu erhalten. Perspektivisch existiert eine zweite, baugleiche Demonstratorinstanz, die eine Generalisierung über Maschineninstanzen hinweg ermöglichen könnte.
  • Umrüstung, Programmierung und modulare Softwarearchitektur: notwendige Hardware-Erweiterungen sowie Anpassung/Erweiterung des SPS-Programms und der Datenerfassungs-Pipeline. Der Steuerungscode soll modular aufgebaut werden und definierte Schnittstellen bereitstellen, über die später ein trainiertes World Model eingebunden werden kann, um den Demonstrator in Echtzeit basierend auf Modellvorhersagen zu regeln.
  • Automatisierte Versuchsdurchführung (DoE): Entwicklung eines Programms, mit dem ein Design of Experiments basierend auf konfigurierbaren Eingaben (Aktionsparameter, Störszenarien, Domänen) erzeugt und automatisiert am Demonstrator durchgeführt werden kann. Das Programm soll wiederverwendbar sein, damit zu einem späteren Zeitpunkt unkompliziert weitere Daten generiert werden können.
  • Datensatzerstellung, Dokumentation und Bewertung: Durchführung der Versuchsreihe und Erstellung des strukturierten Datensatzes. Jedes Sample soll die multimodalen Sensordaten (X), die anwendungsfallspezifischen Labels (Qualität, Störung, Anomalie etc.) und die zugrunde liegenden Aktionen (a) enthalten. Dokumentation des Datensatzformats, Datenqualitätsanalyse und Diskussion der Eignung für das Training eines domänenübergreifenden, multimodalen und handlungsfähigen World Models.

 

 

Anforderungsprofil und Informationen zur Bewerbung:

  • Interesse an Automatisierungstechnik und datengetriebener Prozessoptimierung
  • Grundkenntnisse in SPS-Programmierung (idealerweise Siemens TIA Portal) oder hohe Bereitschaft zur Einarbeitung
  • Gute Programmierkenntnisse (idealerweise Python) für Datenerfassung, Versuchsautomatisierung und Schnittstellenentwicklung
  • Praktisches Geschick im Umgang mit Hardware (Sensorik, Aktorik, Pneumatik) von Vorteil
  • Idealerweise Grundverständnis von Machine Learning und Versuchsplanung (Design of Experiments)
  • Hohe Motivation, strukturierte Arbeitsweise und gute Kommunikationsfähigkeiten
  • Bearbeitungsbeginn ab sofort möglich
  • Umfang und Inhalte je nach Arbeit (BA/PA/MA) und Präferenzen individuell abstimmbar
  • Bewerbungen bitte mit CV und aktueller Fächer-/Notenübersicht per Mail an unten genannten Kontakt