Index

Prototyp einer self-managed Multi-Cluster-Architektur für die Edge (BA/PA/MA)

Der Einsatz von Edge Computing gewinnt in vielen Bereichen an Bedeutung, da er die Datenverarbeitung näher an den Ort der Datenentstehung verlagert und damit Latenzen, Bandbreitenbedarf sowie Abhängigkeiten von Cloud-Verbindungen reduziert. Gleichzeitig steigen die Anforderungen an Automatisierung, Lifecycle Management und Fleet Operations, weil Edge-Knoten oft heterogen sind, in instabilen Netzen laufen und nur eingeschränkt an verteilten Ort gewartet werden können.

Ziel dieser studentischen Arbeit ist der Aufbau und die prototypische Evaluation einer self-managed Edge-Kubernetes-Referenzarchitektur (hub-and-spoke), die zunächst virtuelle Edge Devices (VMs auf Proxmox VE und/oder OpenStack) nutzt und später auf dedizierte Hardware übertragbar ist. Im Fokus steht eine reproduzierbare Day-0 Provisioning Pipeline via (i)PXE boot sowie first-boot configuration mit cloud-init und Ignition/Combustion (optional unter Nutzung von Matchbox). Darauf aufbauend sollen mehrere Linux- und Kubernetes-Cluster-Varianten automatisiert gestartet und zentral mit GitOps sowie Fleet-style Multi-Cluster Rollout verwaltet werden.

(Mögliche) Schwerpunkte der Arbeit:

  • Design & Implementierung einer hub-and-spoke Referenzarchitektur für self-managed Edge Kubernetes (Management Cluster + Edge Spokes).
  • Provisioning Pipeline: Klassisches (i)PXE, darauf aufbauendes Netboot mittels HTTPBoot via UEFI or U-Boot oder je nach BMC auch IPMI/Redfish, Profilverwaltung (optional Matchbox) und Konfiguration via Ignition/Combustion/cloud-init. Parallel dazu Lifecycle Management mittels Cluster API und entsprechendem Provider (z.B. CAPM3 (Metal³ im Falle OpenStack Ironic) oder CAPT (Tinkerbell im Falle von einfachem iPXE/Netboot))
  • Definition von stabilen Cluster-Profilen (z.B. Talos Linux, openSUSE Leap Micro + k3s, Ubuntu + MicroK8s oder Debian + k0s) inkl. automatisiertem Bootstrap und Re-Provisioning (replaceable nodes).
  • GitOps-gestützte Baseline: Standardisierte Installation von Add-ons (z. B. Longhorn, Ingress, Observability) über Argo CD oder Flux.
  • Persistence & Registry Integration: Longhorn als persistence storage, Deployment-Pipeline über GitLab CI/CD, GitLab Container Registry, Harbor als Proxy Cache und Replication Bridge / Pull-Through Cache (ggf. zunächst lediglich GitLab Dependency Proxy für Docker Hub) und optional K3s Spegel.
  • Dokumentation & Demonstrator: Nachvollziehbare Architektur-/Betriebsdokumentation, IaC/Automation in einem Git-Repository sowie eine Demo-Umgebung als Testbed für Forschung/Lehre.

Ausblick auf darauf aubauende Arbeiten:

  • Erweiterung des Lifecycle Managements um Foreman und Katello.
  • Fleet-style Multi-Cluster Rollout: Vergleich und Bewertung von Rancher Fleet, Argo CD ApplicationSet und Flux (optional Open Cluster Management (OCM) / Karmada) anhand definierter Kriterien (Drift, Skalierbarkeit, Multi-tenancy, Offline-Toleranz, Usability usw.).
  • Integration und Reifegradbewertung von KubeEdge/OpenYurt oder LF Edge Komponenten (FIDO Device Onboard, EVE-OS, EdgeX Foundry) im Rahmen der bestehenden Architektur.

Wenn die ausgeschriebene Arbeit noch online ist, dann ist sie auch noch aktuell. Sollten Sie Interesse an der Arbeit haben, so kommen Sie bitte mittels einer E-Mail (in der Sie kurz Ihr Vorwissen darstellen) auf mich zu. Sollten Sie eine intrinsische Motivation für ein angrenzendes oder ähnlichen Thema haben, so stellen Sie in Ihrer Anfrage bitte den Bezug zu meiner Ausschreibung dar.

Bitte stellen Sie die komplette Anfrage in deutscher Sprache, auch wenn Sie die Ausarbeitung in Englisch verfassen werden. Hintergrund ist, dass Sie sich in laufende Forschungsprojekte einbringen mit den Unternehmen austauschen können sollen und von diesen wird mehrheitlich eine Kommunikation auf Deutsch gewünscht.

Weitere Informationen erhalten Sie auf Anfrage, der Arbeitsumfang kann entsprechend der Arbeit angepasst werden und die Bearbeitung weitestgehend im Home-Office stattfinden.

Realisierung eines Mixed-SBC-Clusters für die Edge (BA/PA/MA)

Der Einsatz von Edge Computing gewinnt in vielen Bereichen an Bedeutung, da er die Datenverarbeitung näher an den Ort der Datenentstehung verlagert und damit Latenzen, Bandbreitenbedarf sowie Abhängigkeiten von Cloud-Verbindungen reduziert. Ein Mixed-SBC-Cluster, der verschiedene Single Board Computer (SBC) wie Nvidia Jetson, Raspberry Pi und verschiedene Hardwareerweiterungen umfasst, bietet eine ausgezeichnete Plattform, um die Herausforderungen und Möglichkeiten des Edge Computings zu erproben und zu demonstrieren.

Ziel ist die Entwicklung eines Mixed-SBC-Clusters für die Edge, der als experimentelle Plattform in industrienaher Forschung und für Lehrzwecke im Automatisierungsumfeld dient. Dieser Cluster soll die Heterogenität realer OT-Infrastrukturen bedienen und das Sammeln praktischer Erfahrungen mit Cluster-Management, verteilten Speichersystemen und der Integration von Erweiterungsmodulen (z.B. Funkmodul, Neural Processing Unit und Field Programmable Gate Array) eröffnen.

(Mögliche) Schwerpunkte der Arbeit:

  • Aufbau und Konfiguration eines heterogenen SBC-Clusters für Edge Computing Szenarien.
  • Einsatz eines Cluster-Management-Systems und Implementierung eines Service Mesh.
  • Einsatz von Automatisierungswerkzeugen und Infrastruktur-as-Code (IaC) zur effizienten Verwaltung und Konfiguration.
  • Implementierung eines Lifecycle-Managements des Betriebs bestehend aus Monitoring, Sicherung, Wartung und Aktualisierung.
  • Integration von Storage-Lösungen und spezifischen Erweiterungsmodulen für verschiedene Anwendungsfälle.
  • Integration in Anwendungsfälle der Automatisierungstechnik in industriellen Produktionsanlagen, der Gebäudeautomatisierung und insbesondere des Energiemanagements.
  • Beitrag zum Transfer in die Lehre als Praktikumsversuch oder Übungseinheit

Wenn die ausgeschriebene Arbeit noch online ist, dann ist sie auch noch aktuell. Sollten Sie Interesse an der Arbeit haben, so kommen Sie bitte mittels einer E-Mail (in der Sie kurz Ihr Vorwissen darstellen) auf mich zu. Sollten Sie eine intrinsische Motivation für ein angrenzendes oder ähnlichen Thema haben, so stellen Sie in Ihrer Anfrage bitte den Bezug zu meiner Ausschreibung dar.

Bitte stellen Sie die komplette Anfrage in deutscher Sprache, auch wenn Sie die Ausarbeitung in Englisch verfassen werden. Hintergrund ist, dass Sie sich in laufende Forschungsprojekte einbringen mit den Unternehmen austauschen können sollen und von diesen wird mehrheitlich eine Kommunikation auf Deutsch gewünscht.

Weitere Informationen erhalten Sie auf Anfrage, der Arbeitsumfang kann entsprechend der Arbeit angepasst werden und die Bearbeitung weitestgehend im Home-Office stattfinden.

Intelligente Prozessoptimierung beim Richten von Flachdraht für elektrische Antriebe [BA/PA/MA]

Hintergrund
Die Fertigung elektrischer Antriebe, wie etwa Hairpin-, Continuous-Hairpin- oder Axialflussmaschinen, erfordert eine präzise Kontrolle von Material und Prozess. Ein zentraler Schritt ist das Richten von Flachdraht, das bislang auf festen Parametern und Erfahrungswissen basiert. Dabei werden Schwankungen im Material nur unzureichend berücksichtigt. Das Ziel besteht darin, diesen Prozess mithilfe moderner Sensorik, Messtechnik und innovativer Regelungsansätze weiterzuentwickeln, um die Produktionsqualität effizient zu steigern.

 

Mögliche Aufgabenstellungen
Studentische Arbeiten können zu einem der folgenden Themen erarbeitet werden:

  • Integration und Validierung eines Wirbelstromprüfsystems zur Analyse von Eigenspannungen beim Richten von Flachdraht.
  • Integration eines induktiven Abstandssensors zur Schichtdickenmessung
  • Erweiterung der prototypischen Versuchsanlage um Sicherheitstechnik
  • Modellierung und Simulation des Richtprozesses
  • Weiterentwicklung einer flexiblen, mechanischen Abisolierstation für Flachdraht
  • SPS-Programmierung einer Schwenkbiege-Anlage zum 2D-Biegen von Flachdraht

Die detaillierten Inhalte und Aufgabenstellungen werden in einem persönlichen Gespräch besprochen.

 

Anforderungsprofil

  • Interesse an der Produktion elektrischer Traktionsantriebe
  • Je nach Themengebiet sind Grundkenntnisse in Konstruktion, Messtechnik, Programmierung, Datenanalyse (KI/ML) oder Regelungstechnik erforderlich.
  • Freude an praktischer Arbeit (Versuchsreihen, Messtechnik, Anlagenaufbau)
  • Analytisches, strukturiertes und selbstständiges Arbeiten
  • Teamfähigkeit und Kommunikationsstärke
  • Gute Deutsch- und Englischkenntnisse in Wort und Schrift

 

Bewerbung
Bitte senden Sie Ihre Bewerbung mit

  • Lebenslauf
  • Aktuellem Notenspiegel
  • Angabe der bevorzugten Aufgabenstellung

per E-Mail an anja.preitschaft@faps.fau.de

Wichtig: Bewerbungen ohne konkrete Nennung eines Themenbereichs können leider nicht bearbeitet werden.

[BA/PA/MA] – Aufbereitung und Strukturierung industrieller Fertigungsdaten für das Training eines prozessübergreifenden World Models

Ausgangssituation:

Moderne Fertigungsprozesse erzeugen große Mengen multimodaler Maschinendaten, die das Potenzial bieten, datengetriebene Modelle für verschiedenste Anwendungsfälle wie Predictive Quality, Predictive Maintenance oder Prozessoptimierung zu trainieren. Ein vielversprechender Ansatz ist das Konzept eines World Models, das die Zusammenhänge zwischen Prozesseingangsdaten, Zielgrößen und Stellgrößen bzw. Aktionen ganzheitlich lernt. Voraussetzung dafür ist ein strukturierter, qualitativ hochwertiger Datensatz, der Maschinendaten verschiedener Modalitäten und Quellen auf Sample-Ebene mit geeigneten Ziel- und Regelgrößen verknüpft. Aktuell liegen diverse industrielle Datensätze unterschiedlicher Prozesse sowie öffentlich verfügbare industrielle Referenzdatensätze vor, die als Grundlage für ein solches Vorhaben dienen sollen.

Keywords:
Data Engineering, Datenanalyse, World Model, Predictive Quality, Predictive Maintenance, industrielle Fertigungsdaten, multimodale Daten

 

Aufgabenstellungen:

Ziel der Arbeit ist die methodische Aufbereitung, Analyse und Strukturierung heterogener industrieller Datensätze, sodass diese als Trainingsgrundlage für ein prozessübergreifendes World Model genutzt werden können. Die Aufgabenstellung umfasst die folgenden Arbeitspakete:

  • Fachliche Einarbeitung in die Themenfelder Data Engineering für industrielle Fertigungsdaten, World Models sowie relevante Anwendungsfälle (Predictive Quality, Predictive Maintenance, Prozesssteuerung)
  • Analyse, Bereinigung und ggf. Korrektur der vorliegenden Maschinendaten und Zielgrößen unterschiedlicher Modalitäten und Quellen
  • Identifikation und Extraktion geeigneter Regelgrößen aus den Maschinendaten, die als Aktionen des World Models dienen
  • Verknüpfung der Eingangsdaten (X), Aktionen (a) und Zielgrößen (y) zu einem konsistenten, strukturierten Datensatz auf Sample-Ebene
  • Entwicklung einer geeigneten Datenstruktur, die sowohl eine einfache Analyse und Visualisierung als auch ein performantes Laden für das Modelltraining ermöglicht
  • Entwicklung eines interaktiven Dashboards zur Visualisierung, Filterung und Erzeugung von Train-/Validation-/Test-Splits inkl. wählbarer Skalierungsmethoden

 

Anforderungsprofil und Informationen zur Bewerbung:

  • Interesse an datengetriebenen Methoden im industriellen Umfeld, idealerweise erste Erfahrungen im Bereich Data Engineering oder Datenanalyse
  • Hohe Motivation, Auffassungsgabe sowie strukturierte Arbeitsweise und gute Kommunikationsfähigkeiten
  • IT-Affinität und gute Kenntnisse mindestens einer Hochsprache (idealerweise Python) wünschenswert
  • Bearbeitungsbeginn ab sofort möglich
  • Umfang und Inhalte je nach Arbeit (BA/PA/MA) und Präferenzen individuell abstimmbar
  • Bewerbungen bitte mit CV und aktueller Fächer-/Notenübersicht per Mail an unten genannten Kontakt

[BA/PA/MA] Weiterentwicklung eines Sensordemonstrators zur automatisierten Erzeugung multimodaler Trainingsdaten für ein handlungsfähiges World Model

Ausgangssituation:

Am Lehrstuhl FAPS besteht ein modularer Sensordemonstrator, der im Rahmen einer Masterarbeit entwickelt und in Betrieb genommen wurde. Der Demonstrator bildet eine miniaturisierte Produktionsanlage ab und umfasst einen drehbaren Materialbereitsteller mit zwei Lagertürmen, einen pneumatischen Schwenkarm mit Vakuumgreifer, einen Bearbeitungsbereich mit Drehteller, Stempel und Kamera-basierter Qualitätskontrolle (OpenCV/ML) sowie ein Förderband mit drei Weichen zur Materialverteilung. Die Anlage wird über eine Siemens SPS (S7-1500) gesteuert und verfügt über eine Vielzahl verbauter Sensoren unterschiedlicher Modalitäten – darunter optische Abstandssensoren, kapazitive und induktive Näherungsschalter, Drucksensoren, Lichtschranken, eine Industriekamera sowie mechanische Endschalter – und pneumatischer wie elektrischer Aktoren.

Langfristiges Ziel ist es, auf Basis dieses Demonstrators ein sogenanntes World Model zu entwickeln: ein datengetriebenes Prozessmodell, das Zustände, Aktionen und deren Auswirkungen intern abbildet und so eine ganzheitliche, vorausschauende Optimierung des Betriebs ermöglicht. Um ein solches Modell trainieren zu können, wird ein geeigneter Trainingsdatensatz benötigt, der multimodal (Zeitreihen, Bilddaten etc.), domänenübergreifend (verschiedene Produkte und Prozessvarianten) und handlungsorientiert (mit expliziten Aktionen und Störungen) aufgebaut ist. Ziel dieser Arbeit ist die Erzeugung dieses Datensatzes – sowie die dafür nötige Erweiterung und Automatisierung des Demonstrators.

Keywords:
World Model, Domain Generalization, Multimodal Dataset, Sensordemonstrator, SPS, Design of Experiments, Predictive Quality, Predictive Maintenance, Anomaly Detection, Industrie 4.0

 

Aufgabenstellungen:

Ziel der Arbeit ist die systematische Erstellung eines domänenübergreifenden, multimodalen Datensatzes auf Basis des bestehenden Sensordemonstrators, der zum späteren Training eines handlungsfähigen World Models geeignet ist. Der Datensatz soll auf Sample-Ebene die Eingangsdaten aller Sensormodalitäten (X), die anwendungsfallspezifischen Labels (y; Qualität, Störung, Anomalie etc.) sowie die jeweils zugrunde liegenden Aktionen (a) zeitsynchron enthalten. Durch den Aufbau über mehrere Domänen hinweg (z. B. unterschiedliche Produkte, Maschinen oder Prozessvarianten) soll der Datensatz später ein domänenübergreifendes Lernen (Domain Generalization) ermöglichen. Darüber hinaus soll der Datensatz möglichst viele industrielle Anwendungsfälle abdecken können, darunter Predictive Quality, Predictive Maintenance und Anomaly Detection. Die Aufgabenstellung umfasst die folgenden Arbeitspakete:

  • Bestandsaufnahme: Systematische Dokumentation des Ist-Zustands des Demonstrators (verbaute Sensorik, Aktorik, SPS-Programm, Datenflüsse, bestehende Steuerungsszenarien). Identifikation der vorhandenen Sensormodalitäten (Zeitreihen, Bilddaten, binäre Signale etc.) und Bewertung der Datenlage als Grundlage für einen multimodalen Datensatz.
  • Evaluierung und Integration von Aktionen: Identifikation und Bewertung möglicher Stellgrößen, die als Aktionen in den Prozess integriert und über die SPS variiert werden können (z. B. Bandgeschwindigkeit, Stempeldruck/-dauer, Schwenkgeschwindigkeit, Drehteller-Taktung, Weichenlogik). Auswahl und Implementierung geeigneter Aktionen, sodass deren Auswirkungen auf die Sensordaten und den Prozessausgang messbar werden.
  • Konzeption und Einbringung von Störungen: Überprüfung, welche Prozessstörungen realistisch erzeugt oder simuliert werden können (z. B. Druckabfall, Sensorausfall/-degradation, Werkstückvarianz, Bandstopp). Integration ausgewählter Störszenarien in den Demonstratorbetrieb, um Trainingsdaten für Anomaly Detection und Predictive Maintenance zu generieren.
  • Domänenkonzept und Qualitätssimulation: Definition von Domänen für den Datensatz, z. B. unterschiedliche Werkstückvarianten (Material, Farbe, Geometrie) oder Prozessvarianten (Szenarien, Parameterregime). Erarbeitung eines Konzepts zur Simulation bzw. kontrollierten Erzeugung von Produktqualitätsunterschieden, um gelabelte Qualitätsdaten für Predictive Quality zu erhalten. Perspektivisch existiert eine zweite, baugleiche Demonstratorinstanz, die eine Generalisierung über Maschineninstanzen hinweg ermöglichen könnte.
  • Umrüstung, Programmierung und modulare Softwarearchitektur: notwendige Hardware-Erweiterungen sowie Anpassung/Erweiterung des SPS-Programms und der Datenerfassungs-Pipeline. Der Steuerungscode soll modular aufgebaut werden und definierte Schnittstellen bereitstellen, über die später ein trainiertes World Model eingebunden werden kann, um den Demonstrator in Echtzeit basierend auf Modellvorhersagen zu regeln.
  • Automatisierte Versuchsdurchführung (DoE): Entwicklung eines Programms, mit dem ein Design of Experiments basierend auf konfigurierbaren Eingaben (Aktionsparameter, Störszenarien, Domänen) erzeugt und automatisiert am Demonstrator durchgeführt werden kann. Das Programm soll wiederverwendbar sein, damit zu einem späteren Zeitpunkt unkompliziert weitere Daten generiert werden können.
  • Datensatzerstellung, Dokumentation und Bewertung: Durchführung der Versuchsreihe und Erstellung des strukturierten Datensatzes. Jedes Sample soll die multimodalen Sensordaten (X), die anwendungsfallspezifischen Labels (Qualität, Störung, Anomalie etc.) und die zugrunde liegenden Aktionen (a) enthalten. Dokumentation des Datensatzformats, Datenqualitätsanalyse und Diskussion der Eignung für das Training eines domänenübergreifenden, multimodalen und handlungsfähigen World Models.

 

 

Anforderungsprofil und Informationen zur Bewerbung:

  • Interesse an Automatisierungstechnik und datengetriebener Prozessoptimierung
  • Grundkenntnisse in SPS-Programmierung (idealerweise Siemens TIA Portal) oder hohe Bereitschaft zur Einarbeitung
  • Gute Programmierkenntnisse (idealerweise Python) für Datenerfassung, Versuchsautomatisierung und Schnittstellenentwicklung
  • Praktisches Geschick im Umgang mit Hardware (Sensorik, Aktorik, Pneumatik) von Vorteil
  • Idealerweise Grundverständnis von Machine Learning und Versuchsplanung (Design of Experiments)
  • Hohe Motivation, strukturierte Arbeitsweise und gute Kommunikationsfähigkeiten
  • Bearbeitungsbeginn ab sofort möglich
  • Umfang und Inhalte je nach Arbeit (BA/PA/MA) und Präferenzen individuell abstimmbar
  • Bewerbungen bitte mit CV und aktueller Fächer-/Notenübersicht per Mail an unten genannten Kontakt

Induktives Laden: Konzeption und Entwicklung von Prozessen zur automatisierten Produktion induktiver Energieübertragungssysteme (BA/PA/MA)

Ausgangslage:

Mit der fortschreitenden Elektrifizierung der Fahrzeuge steigt auch die Nachfrage nach komfortablen, sicheren und in den Alltag integrierbaren Lademöglichkeiten. Kontaktlose Energieübertragungssysteme ermöglichen Szenarien wie „Road Charging“ und „Opportunity Charging“. Weitere Vorteile sind ein gesteigerter Ladekomfort für den Anwender sowie eine geringere Angriffsfläche für Vandalismus. Folglich ist für die nächsten Jahre eine gesteigerte Nachfrage nach induktiven Energieübertragungssystemen für Elektromobile zu erwarten. Allerdings stehen bislang keine Verfahren zur Verfügung, die eine wirtschaftliche Fertigung induktiver Energieübertragungssysteme in hoher Stückzahl ermöglichen.

Mögliche Aufgabenstellung

Verlegen, Kontaktieren und Isolieren sind die drei wichtigsten Schritte zur Herstellung eines induktiven Energieübertragungssystems. Die Verfahren sollen durch geeignete Maßnahmen für die industrielle Fertigung befähigt werden. Neben praktischen Versuchen ist auch der prototypische Aufbau von Demonstratoren vorgesehen. Mögliche Aufgabenstellungen können sein:

  • Einarbeiten in die Technologien für die kontaktlose Energieübertragung
  • Analyse von verschiedenen Systemaufbauten der Marktbegleiter
  • Adaption bestehender Konzepte aus dem Elektromaschinenbau auf den neuen Anwendungskontext
  • Entwicklung und Konzeption geeigneter Vorrichtungen und Aufbau von Demonstratorsystemen

Hinweise und Bewerbung:

  • Bearbeitung der Aufgaben im studentischem Team
  • Strukturierte und selbstständige Arbeitsweise
  • Bewerbungen bitte per E-Mail mit Lebenslauf und aktueller Fächerübersicht an info@seamless-energy.com

Ansprechpartner:

Maximilian Kneidl
Maximilian Kneidl, M.Sc. info@seamless-energy.com

E-Road-LKW

Induktives Laden: Konzeption und Entwicklung von Prozessen zur automatisierten Produktion induktiver Energieübertragungssysteme (BA/PA/MA)

Ausgangslage:

Mit der fortschreitenden Elektrifizierung der Fahrzeuge steigt auch die Nachfrage nach komfortablen, sicheren und in den Alltag integrierbaren Lademöglichkeiten. Kontaktlose Energieübertragungssysteme ermöglichen Szenarien wie „Road Charging“ und „Opportunity Charging“. Weitere Vorteile sind ein gesteigerter Ladekomfort für den Anwender sowie eine geringere Angriffsfläche für Vandalismus. Folglich ist für die nächsten Jahre eine gesteigerte Nachfrage nach induktiven Energieübertragungssystemen für Elektromobile zu erwarten. Allerdings stehen bislang keine Verfahren zur Verfügung, die eine wirtschaftliche Fertigung induktiver Energieübertragungssysteme in hoher Stückzahl ermöglichen.

Mögliche Aufgabenstellung

Verlegen, Kontaktieren und Isolieren sind die drei wichtigsten Schritte zur Herstellung eines induktiven Energieübertragungssystems. Die Verfahren sollen durch geeignete Maßnahmen für die industrielle Fertigung befähigt werden. Neben praktischen Versuchen ist auch der prototypische Aufbau von Demonstratoren vorgesehen. Mögliche Aufgabenstellungen können sein:

  • Einarbeiten in die Technologien für die kontaktlose Energieübertragung
  • Analyse von verschiedenen Systemaufbauten der Marktbegleiter
  • Adaption bestehender Konzepte aus dem Elektromaschinenbau auf den neuen Anwendungskontext
  • Entwicklung und Konzeption geeigneter Vorrichtungen und Aufbau von Demonstratorsystemen

Hinweise und Bewerbung:

  • Bearbeitung der Aufgaben im studentischem Team
  • Strukturierte und selbstständige Arbeitsweise
  • Bewerbungen bitte per E-Mail mit Lebenslauf und aktueller Fächerübersicht an info@seamless-energy.com

Ansprechpartner:

Maximilian Kneidl
Maximilian Kneidl, M.Sc. info@seamless-energy.com

E-Road-LKW

Induktives Laden: Konzeption und Entwicklung von Prozessen zur automatisierten Produktion induktiver Energieübertragungssysteme (BA/PA/MA)

Ausgangslage:

Mit der fortschreitenden Elektrifizierung der Fahrzeuge steigt auch die Nachfrage nach komfortablen, sicheren und in den Alltag integrierbaren Lademöglichkeiten. Kontaktlose Energieübertragungssysteme ermöglichen Szenarien wie „Road Charging“ und „Opportunity Charging“. Weitere Vorteile sind ein gesteigerter Ladekomfort für den Anwender sowie eine geringere Angriffsfläche für Vandalismus. Folglich ist für die nächsten Jahre eine gesteigerte Nachfrage nach induktiven Energieübertragungssystemen für Elektromobile zu erwarten. Allerdings stehen bislang keine Verfahren zur Verfügung, die eine wirtschaftliche Fertigung induktiver Energieübertragungssysteme in hoher Stückzahl ermöglichen.

Mögliche Aufgabenstellung

Verlegen, Kontaktieren und Isolieren sind die drei wichtigsten Schritte zur Herstellung eines induktiven Energieübertragungssystems. Die Verfahren sollen durch geeignete Maßnahmen für die industrielle Fertigung befähigt werden. Neben praktischen Versuchen ist auch der prototypische Aufbau von Demonstratoren vorgesehen. Mögliche Aufgabenstellungen können sein:

  • Einarbeiten in die Technologien für die kontaktlose Energieübertragung
  • Analyse von verschiedenen Systemaufbauten der Marktbegleiter
  • Adaption bestehender Konzepte aus dem Elektromaschinenbau auf den neuen Anwendungskontext
  • Entwicklung und Konzeption geeigneter Vorrichtungen und Aufbau von Demonstratorsystemen

Hinweise und Bewerbung:

  • Bearbeitung der Aufgaben im studentischem Team
  • Strukturierte und selbstständige Arbeitsweise
  • Bewerbungen bitte per E-Mail mit Lebenslauf und aktueller Fächerübersicht an info@seamless-energy.com

Ansprechpartner:

Dr.-Ing. Michael Weigelt info@seamless-energy.com

Ansprechpartner:

Maximilian Kneidl

[PT/MT] Geo-Modeling and Assessment of Global Production Networks

Background

Modern production and supply networks span multiple continents, combining various transport modes (road, sea, rail, air). Understanding the geographical structure, costs, and environmental impacts of these logistics routes is key to designing resilient and sustainable global value chains. This thesis contributes to a research project on modeling and optimizing international production networks. The focus lies on geo-spatial modeling of transport flows, calculation of transport costs and emissions, and interactive visualization of global supply routes.

Objectives

Develop a geo-based Python model that:

  • Maps realistic transport routes between global production and assembly sites,
  • Calculates transport distances, costs, and CO₂ emissions based on real data,
  • Visualizes results interactively on a world map (e.g., using folium or geopandas).

Main Tasks

Data Collection and Preparation

  • Identify suitable open geospatial datasets (e.g., Global Shipping Lanes, OpenStreetMap).
  • Gather emission and transport cost factors (e.g., from the GLEC Framework).

Model Development

  • Implement routing and distance calculations for combined transport modes.
  • Compute costs and CO₂ emissions for selected routes or network scenarios.

Visualization and Analysis

  • Create an interactive geo-visualization of the modeled network.
  • Document assumptions, data sources, and main findings.

Requirements

  • Ongoing studies at FAU
  • Good programming skills in Python
  • Experience with data analysis and mapping tools (pandas, geopandas, folium) preferred
  • Interest in global production networks, sustainability, and data-driven modeling

Tools / Frameworks

  • Python (pandas, geopandas, folium, shapely)
  • Open geospatial data (OpenStreetMap, Global Shipping Lanes, etc.)
  • Emission frameworks such as GLEC Framework

Type of Thesis

  • Final Thesis (Bachelor / Master)
  • Type: Theoretical thesis / Systematic literature review
  • Start date: flexible

Please send your complete application documents (short cover letter, work/internship certificates, and current transcript of records) to: baris.albayrak@faps.fau.de

 

I look forward to hearing from you!

Generative AI in Systems Engineering: Optimization of a framework for an LLM assistance system for model-based and semi-automated development of warehouse systems in MBSE

 

 

 

 

 

LLM-SE research project

As part of the LLM-SE (Large Language Model supported Systems Engineering) research project, we are working with our industry partners to develop an assistance system based on the MBSE philosophy and structure using large language models to partially automate the engineering process of warehouse technology and concepts from requirements analysis to virtual commissioning. This should interpret user input such as requirements and adaptations, transform them into individual, model-based solutions through the availability of company-specific product catalogs, historical project data and best practices and secure these through suitable validation and verification mechanisms.

Your tasks in the project

  • Literature research on the modeling language SysML v2
  • Research, evaluation and selection of suitable AI methods and models
  • Optimization of the existing framework through the further development of a new microservice that can be integrated with the current service and offers scalable LLM-fine-tuning.
  • Collecting data from industry project partners and creating pre-processing pipelines that convert raw data into ALPACA format for model training.
  • Creating intuitive user interfaces that allow non-technical users to test, evaluate and refine different base models – for warehouse technologies and concepts – by using different prompts.
  • Automatic generation of SysML models for warehouse technologies and concepts through the use of LLMs in the developed framework and the improvement of these models through an interactive behavior of the process engine
  • The final result of your work: With the help of the framework, the layouts for different warehouse concepts including the associated warehouse technologies automatically suggested by LLMs for the corresponding material flow technology in the factory should be able to be generated automatically.

Requirements

  • Very good programming skills in Python are mandatory
  • Very good knowledge and practical experience in RESTful APIs is mandatory
  • Very good knowledge of processing data formats such as CSV, JSON, XML and Markdown is mandatory
  • Confident handling of containerization technologies such as Docker, Podman
  • Practical experience with LLM fine-tuning frameworks, e.g. Unsloth, LlamaFactory is mandatory
  • Practical experience with LLM inference optimization engines, e.g. Ollama, Llama.cpp or vLLM is mandatory. e.g. Ollama, Llama.cpp or vLLM is mandatory
  • Practical experience with database technologies for SQL, NoSQL, vector and object databases is mandatory
  • Basic knowledge of prompt engineering techniques, including one-shot, few-shot and chain-of-thought prompting is an advantage
  • Basic knowledge of version control systems e.g. Git is an advantage
  • Basic knowledge of front-end development e.g. React, Next.js is an advantage

Application instructions

  • Start at the earliest possible date
  • Please send applications by e-mail with a current transcript of records and CV as well as a short letter of motivation
  • Please note that incomplete applications cannot be considered
  • Further information on request by e-mail or in a personal interview