Index

Tracking des Ultraschallkopfes mithilfe einer IMU

Für die Erfassung von Gewebedaten wird derzeit ein 3D-Ultraschall-Freihandscansystem entwickelt. Um die exakte räumliche Rekonstruktion der aufgenommenen Daten zu gewährleisten, ist eine präzise Bestimmung der Position und Orientierung des Ultraschallkopfes während des Scans erforderlich.

Eine mögliche Lösung bietet die Nutzung einer Inertial Measurement Unit (IMU), die Beschleunigungen und Rotationen des Schallkopfes misst. Auf dieser Basis kann die Trajektorie geschätzt und für die Rekonstruktion der 3D-Ultraschalldaten genutzt werden.

Ziel der Arbeit ist es, Verfahren für das Tracking des Ultraschallkopfes mithilfe einer IMU zu entwickeln, zu implementieren und experimentell zu evaluieren.

Inhalte der Arbeit:

  • Einarbeitung in die Grundlagen der IMU-Sensorik und deren Signalverarbeitung

  • Aufbau eines Tracking-Setups mit IMU-Sensor am Ultraschallkopf

  • Implementierung von Algorithmen zur Berechnung der Pose (Position und Orientierung)

  • Untersuchung von Verfahren zur Fehlerkorrektur und Driftkompensation (z. B. Sensorfusion, Filtermethoden)

  • Validierung der Tracking-Daten

  • Dokumentation der Ergebnisse, Herausforderungen und Optimierungsmöglichkeiten

Voraussetzungen:

  • Interesse an Sensortechnik, Signalverarbeitung und Medizintechnik

  • Programmierkenntnisse in Python oder C++

  • Erste Erfahrungen mit Sensorfusion, Filtermethoden (z. B. Kalman-Filter) oder ROS von Vorteil

  • Strukturierte und selbstständige Arbeitsweise

Bewerbung:
Interessierte Studierende senden ihre Bewerbung mit aktueller Notenübersicht und Lebenslauf per E-Mail.

Beginn: ab sofort

Verbesserung von 3D-Ultraschalldaten durch Bildstitching und Fehlerkorrektur

Im Rahmen eines Forschungsprojekts wird ein neuartiges 3D-Ultraschall-Freihandscansystem entwickelt, mit dem Gewebestrukturen räumlich erfasst werden können. Erste Rekonstruktionen zeigen bereits vielversprechende Ergebnisse, jedoch treten bei längeren oder komplexeren Scans teilweise Ungenauigkeiten und Versätze auf. Diese entstehen z. B. durch Bewegungen während des Freihand-Scans oder durch Limitierungen der Rekonstruktionsalgorithmen.

Ziel der Arbeit ist es, Verfahren zur nachträglichen Verbesserung der Datenqualität zu entwickeln. Dabei sollen insbesondere Bildstitching-Methoden und Korrekturalgorithmen erprobt werden, um Verzerrungen zu reduzieren und präzisere 3D-Modelle zu erzeugen.

Inhalte der Arbeit:

  • Analyse typischer Fehlerquellen bei 3D-Ultraschall-Freihandscans

  • Recherche und Bewertung geeigneter Methoden zur Datenverbesserung (z. B. Bildstitching, Registrierungsalgorithmen, Glättung)

  • Implementierung und Test ausgewählter Ansätze

  • Vergleich der Ergebnisse mit Rohdaten und Validierung anhand von Referenzmessungen

  • Dokumentation der Verbesserungen sowie Diskussion von Grenzen und Optimierungspotenzial

Voraussetzungen:

  • Interesse an Bildverarbeitung, 3D-Rekonstruktion und Medizintechnik

  • Programmierkenntnisse in Python oder C++

  • Erste Erfahrungen mit Bildverarbeitungs- oder 3D-Bibliotheken (z. B. OpenCV, Open3D, VTK, PCL) von Vorteil

  • Strukturierte und selbstständige Arbeitsweise

Bewerbung:
Interessierte Studierende senden ihre Bewerbung mit aktueller Notenübersicht und Lebenslauf per E-Mail.

Beginn: ab sofort

Validierung eines 3D-Ultraschall-Freihandscansystems im Vergleich zu MRT-Daten

Im Rahmen des aktuellen Forschungsprojekts HapticScan wird ein neuartiges 3D-Ultraschall-Freihandscansystem entwickelt, mit dem sich Gewebestrukturen in hoher räumlicher Auflösung erfassen lassen. Ziel ist es, innere Strukturen des Stumpfes von Amputationspatient:innen präzise und reproduzierbar darzustellen und so die Grundlage für eine verbesserte digitale Prothesenversorgung zu schaffen.

Um die Qualität und Genauigkeit des Systems bewerten zu können, sollen die mittels Ultraschall erzeugten 3D-Rekonstruktionen mit etablierten bildgebenden Verfahren, insbesondere der Magnetresonanztomographie (MRT), verglichen werden.

Inhalte der Arbeit:

  • Unterstützung bei der Akquise und Betreuung von gesunden Probanden

  • Aufbau und Durchführung eines Mess-Setups für vergleichbare Ultraschall- und MRT-Messungen

  • Unterstützung bei der Aufnahme von Freihand-Ultraschalldaten

  • Vergleich der rekonstruierten 3D-Daten mit MRT-Aufnahmen (Geometrie, Genauigkeit, Abbildungsqualität)

  • Analyse der Stärken und Grenzen des Freihand-Ultraschallsystems im Vergleich zur MRT

  • Dokumentation und Diskussion der Ergebnisse

Voraussetzungen:

  • Interesse an Medizintechnik und bildgebenden Verfahren

  • Erste Kenntnisse in Bildverarbeitung und 3D-Rekonstruktion von Vorteil

  • Programmierkenntnisse (z. B. Python, MATLAB, C++) hilfreich

  • Freude an praktischer Arbeit mit Probanden und medizinischen Messsystemen

  • Selbstständige, verantwortungsvolle und strukturierte Arbeitsweise

Auch als Forschungspraktikum (M6.2) geeignet.

Bewerbung:
Interessierte Studierende senden ihre Bewerbung mit aktueller Notenübersicht und Lebenslauf per E-Mail.

Beginn: ab sofort

Weiterentwicklung und Optimierung der Fusion von Ultraschall- und 3D-Scandaten

In Deutschland werden jährlich mehr als 60.000 Amputationen durchgeführt. Häufig sind die unteren Extremitäten betroffen, wodurch es zu einer starken Einschränkung der Mobilität kommt und die Patienten für mehr Flexibilität im Alltag auf technische Hilfsmittel wie Prothesen angewiesen sind. Die bisherige manuelle Versorgung durch Palpation und Gipsabdruck ist stark subjektiv und abhängig von der Erfahrung des Orthopädietechnikers.

Im Rahmen eines Forschungsprojekts wurde ein neuartiges haptisches Scansystem entwickelt, das Ultraschall-Elastographie mit exakten Lokalisierungsdaten kombiniert. Erste Methoden zur Fusion von Ultraschall- und Oberflächenscandaten wurden erprobt, jedoch konnten die Ergebnisse hinsichtlich Genauigkeit, Stabilität und Praktikabilität noch nicht überzeugen.

Ziel der ausgeschriebenen Arbeit ist es, bestehende Ansätze zur Datenfusion kritisch zu analysieren und gezielt zu verbessern. Dazu sollen verschiedene Methoden zur Registrierung, Transformation und Kombination der Datenquellen untersucht, weiterentwickelt und praktisch erprobt werden.

Inhalte:

  • Analyse der bisherigen Verfahren zur Fusion von Ultraschall- und 3D-Scandaten
  • Untersuchung und Implementierung alternativer Methoden zur Datenregistrierung (z. B. ICP, Feature-basierte Ansätze, Machine Learning)

  • Verbesserung der Genauigkeit, Robustheit und Automatisierung der Datenfusion

  • Integration der Ergebnisse in eine Visualisierungs- und Bearbeitungsumgebung

  • Evaluierung anhand von Testmessungen und Vergleich mit Referenzdaten

  • Dokumentation der Optimierungen sowie Diskussion der Grenzen und Perspektiven

Voraussetzungen:

  • Interesse an medizinischer Bildverarbeitung, Datenfusion und 3D-Visualisierung

  • Programmierkenntnisse in Python, C++ oder einer vergleichbaren Sprache

  • Erste Erfahrungen mit Bibliotheken/Frameworks wie Open3D, VTK, PCL, OpenCV oder ähnlichem von Vorteil

  • Grundverständnis von 3D-Geometrie und Bildanalyse hilfreich

  • Strukturierte, selbstständige Arbeitsweise

Bewerbung:
Interessierte Studierende senden ihre Bewerbung mit aktueller Notenübersicht und Lebenslauf per E-Mail.

Beginn: ab sofort

Entwicklung einer Anwendung zur interaktiven Visualisierung und Annotation von 3D-Ultraschall- und Oberflächendaten

Im Rahmen eines Forschungsprojekts zur Digitalisierung der Prothesenversorgung wird ein System entwickelt, das haptische Gewebedaten mittels Ultraschall-Elastographie erfasst und in ein dreidimensionales Modell überführt. Zusätzlich sollen Oberflächenscandaten aufgenommen und mit den Ultraschalldaten entweder manuell oder automatisiert zusammengeführt werden, um ein vollständiges räumliches Abbild zu erhalten.

Ziel der Arbeit ist die prototypische Umsetzung eines Systems, das Ultraschalldaten und Oberflächenscandaten in 3D visualisiert, miteinander kombiniert und Interaktionen wie Drehen, Skalieren, Clipping sowie Annotation ermöglicht. Dabei sollen verschiedene Implementierungsmöglichkeiten evaluiert und die Performance für große Datensätze optimiert werden.

Inhalte:

  • Einarbeitung in 3D-Visualisierungstechniken und geeignete Frameworks (z. B. OpenGL, Three.js, VTK, Unity, PyVista)
  • Implementierung von Benutzerinteraktionen: Rotation, Skalierung, Clipping, Annotation
  • Laden, Speichern und Verarbeiten von Punktwolkenformaten und Oberflächenscandaten (z. B. .PLY, .STL, …)
  • Fusion von Ultraschall- und Oberflächendaten (manuell oder automatisiert)
  • Optimierung der Performance für große Datensätze
  • Optional: Aufbau von Bindings oder Schnittstellen zu Python für weiterführende Analysen
  • Dokumentation von Herausforderungen, Grenzen und Optimierungsmöglichkeiten

Voraussetzungen:

  • Interesse an Computergrafik, 3D-Visualisierung, Sensorfusion und Medizintechnik
  • Programmierkenntnisse in Python und C++
  • Erfahrung mit 3D-Frameworks oder Visualisierungslibraries von Vorteil
  • Strukturierte und selbstständige Arbeitsweise

Bewerbung: Interessierte Studierende senden ihre Bewerbung mit aktueller Notenübersicht und Lebenslauf per E-Mail.

Beginn: ab sofort

BA/PA/MA: Analyse und Modellierung der chemischen Vernetzung von 2K-Silikon

Sowohl im Maschinenbau als auch in der Medizintechnik finden Silikonbauteile aufgrund ihrer besonderen Materialeigenschaften, wie Temperaturstabilität, Biokompatibilität und Flexibilität, breite Anwendung. Zur individualisierten Herstellung von Silikonbauteilen werden bisher hauptsächlich aufwendige indirekte Gussverfahren genutzt. Neuartige additive Verfahren, der direkte Silikondruck, besitzen das Potenzial, die Fertigung zu vereinfachen, komplexe Geometrien zu ermöglichen und eine wirtschaftliche Produktion ab Losgröße eins umzusetzen. Am Lehrstuhl FAPS werden die innovativen Verfahren Direct Ink Writing (DIW) und Liquid Additive Manufacturing (LAM) für die Herstellung von Silikonbauteilen eingesetzt und erforscht.

Im Rahmen dieser studentischen Arbeit wird das Vernetzungsverhalten von 2K Silikonkautschuk charakterisiert, analysiert und modelliert. Dafür werden DSC- und Rheometrie-Messdaten bereinigt und aufbereitet. Die Daten werden danach grafisch aufbereitet und ermöglichen die Ermittlung von Materialkennwerten.

Diese Arbeit bietet die Möglichkeit, in ein aktuelles und fortschrittliches Forschungsgebiet im Schnittpunkt zwischen Materialwissenschaft und Maschinenbau einzutauchen und den Einsatz von modernen Technologien in der Fertigung kennenzulernen. Eigene Ideen können umgesetzt und in der Praxis angewendet werden.

 

 

Aufgaben:

  • Literaturrecherche zum Stand der Forschung in der Datenerfassung und -aufbereitung
  • Aufbereitung und Analyse von Versuchsdaten
  • Übertragung der Ergebnisse auf ein Vernetzungsmodell
  • Modellvalidierung über Materialcharakterisierungsversuche
  • Dokumentation und Präsentation der Ergebnisse

 

Vorkenntnisse:

  • Studium im Bereich Maschinenbau/Mechatronik/Medizintechnik/Elektrotechnik oder ähnliches
  • Vorerfahrung im Bereich der Datenverarbeitung in Origin wünschenswert
  • Interesse an der additiven Fertigung und Materialwissenschaften
  • Sehr engagierte, selbstständige und zuverlässige Arbeitsweise

 

Bewerbungen mit Lebenslauf, Notenspiegel und sehr knappem Motivationsschreiben (maximal 80 Wörter) bitte über das Anfrageformular oder an Lukas.Gugel@faps.fau.de

BA/MA/PA – Erweiterung eines VR-Demonstrators zur realitätsnahen Bewertung von Navigationsalgorithmen in belebten Umgebungen

Motivation

Am FAPS werden intelligente Assistenzsysteme entwickelt, die Menschen mit Mobilitätseinschränkungen im Alltag unterstützen sollen. Ein Fokus liegt auf der Entwicklung eines intelligenten Rollstuhls, der sich nicht nur sicher, sondern auch sozial verträglich und komfortabeldurch dynamische Umgebungen bewegen kann.

Um verschiedene Navigationsalgorithmen gezielt und vergleichbar zu bewerten, wurde ein erster VR-Demonstratoraufgebaut. Dieser ermöglicht es, Navigationserlebnisse aus Sicht der fahrenden Person nachzustellen und subjektiv zu bewerten.

Zielsetzung

Ziel dieser Arbeit ist die Erweiterung des bestehenden VR-Demonstrators um belebte und realitätsnahe Umgebungen, in denen Navigationsalgorithmen unter wiederholbaren Bedingungen getestet werden können.

Ein vielversprechender Ansatz ist die Entwicklung eines Unity-Wrappers für HuNavSim, um realistische Personenströme und Interaktionen direkt in Unity darzustellen und diese mit der Meta Quest 2 erlebbar zu machen. So können Probanden identische Szenarien mit unterschiedlichen Navigationsstrategien durchlaufen – eine wichtige Grundlage zur Bewertung von Passagierkomfort und sozialer Akzeptanz.

Inspiration liefern unter anderem folgende Veröffentlichungen:

Human Comfort Factors in People Navigation: Literature Review, Taxonomy and Framework
HuNavSim 2.0

Arbeitsschritte
– Einarbeitung in den bestehenden VR-Demonstrator am FAPS
– Erweiterung von HuNavSim zur Darstellung belebter Umgebungen
– Entwicklung eines Unity-Wrappers zur Kopplung mit HuNavSim
– Integration mit der Meta Quest 2 zur immersiven Nutzung
– Aufbau eines standardisierten Testsystems zur Bewertung verschiedener Algorithmen
– Erste Tests mit Probanden zur subjektiven Komfortanalyse

Was wir bieten
– Praxisnahe Arbeit an der Schnittstelle von VR, Robotik und Mensch-Maschine-Interaktion
– Entwicklung mit modernsten Tools (Unity, HuNavSim, Meta Quest 2)
– Betreuung durch ein engagiertes Team mit Erfahrung in Robotik, Simulation und Usability
– Freiraum zur kreativen Umsetzung eigener Ideen
– Flexible Zeiteinteilung und individuelle Betreuung

Anforderungen & Bewerbung
– Interesse an VR, Simulation oder Mensch-Roboter-Interaktion
– Grundkenntnisse in Unity (C#) oder Programmierung (z. B. Python) und ROS hilfreich, aber nicht zwingend notwendig
– Spaß an kreativer Entwicklung und technischer Umsetzung
– Beginn jederzeit möglich

Bewerbung bitte per E-Mail mit kurzer Notenübersicht und Lebenslauf.
Gerne beantworten wir Fragen auch in einem persönlichen Gespräch – einfach melden!

Entwicklung eines Echtzeit-Feedbacksystems zur Unterstützung standardisierter Ultraschallmessungen durch Benutzerfeedback

Eine präzise und systematische Durchführung von Ultraschallmessungen ist entscheidend für die Qualität der 3D-Rekonstruktion von Gewebestrukturen – z. B. zur objektiven Vermessung von Amputationsstümpfen für die Prothesenversorgung. Aktuell fehlen in der klinischen Praxis jedoch Mittel zur Rückmeldung über die Scanqualität oder Vollständigkeit während der Messung.

Ziel dieser Arbeit ist es, ein Echtzeit-Feedbacksystem zu entwickeln, das die Benutzer:innen bei der Durchführung von Ultraschallscans unterstützt, ohne ihren natürlichen Arbeitsfluss zu stören. Dabei soll untersucht werden, welches Feedback in der Praxis realistisch und hilfreich ist und wie dieses umgesetzt werden könnte.

Mögliche Feedbackansätze:

  • Akustisches Feedback: z. B. Tonhöhe oder Sprachhinweise
  • Haptisches Feedback: z. B. Vibrationsmotor am Griff
  • Visuelles Feedback: z. B. kleine LED-Anzeigen, farblich codierte Rückmeldung oder minimales Tablet-Display in Blicknähe

Inhalte:

  • Einarbeitung in relevante Themen (Ultraschall, Tracking, Human-Machine-Interaction)
  • Auswahl und prototypische Umsetzung geeigneter Feedbackmethoden
  • Entwicklung eines modularen Feedbacksystems (Software und ggf. einfache Hardwarekomponenten)
  • Echtzeit-Anbindung an Tracking- und Bilddaten
  • Evaluation der Benutzerfreundlichkeit in typischen Scan-Szenarien

Voraussetzungen:

  • Interesse an interdisziplinären Themen (Medizintechnik, UX-Design, Sensorik)
  • Grundkenntnisse in GUI-/Systementwicklung (z. B. PyQt, Tkinter, ROS Rviz)
  • Erste Erfahrungen in Echtzeitsystemen, Sensorverarbeitung oder Mikrocontroller von Vorteil
  • Programmierkenntnisse (Python, C++ o. ä.)
  • Sorgfältige, kreative und benutzerorientierte Arbeitsweise

Bewerbung: Interessierte Studierende senden ihre Bewerbung mit aktueller Notenübersicht und Lebenslauf per E-Mail.

Beginn: ab sofort

Messung des Passagierkomforts mittels Beschleunigung und EKG eines autonomen Rollstuhls

Motivation

Technologien der mobilen Robotik ermöglichen neue Assistenzsysteme zur Unterstützung der Mobilität von betroffenen Personen. Bei der Personennavigation steht der Komfort für die Person im Vordergrund. Dazu müssen Komfortfaktoren sowohl für den Passagier als auch für umstehende Personen berücksichtigt werden.

Im Rahmen dieser Arbeit soll ein prototypischer Versuchsaufbau mit IMU und/oder EKG am Rollstuhl realisiert werden, um den Zusammenhang zwischen Beschleunigung sowie Vitaldaten und dem Passagierkomfort experimentell zu untersuchen. Dazu sollen im Rahmen dieser Arbeit reale Nutzerstudien mit einem autonomen Rollstuhl in unserem Labor durchgeführt werden.

Ziele und Arbeitsschritte

  • Einarbeitung in ROS
  • Einarbeitung in das Themenfeld der Personennavigation
  • Implementierung des Versuch Aufbaus
  • Durchführen von Probandenstudien

Benefits

  • Hands-on experience in der Entwicklung im Bereich Medizintechnik und Robotik
  • Austausch mit anderen Studierenden am FAPS
  • Einblicke in weitere Forschungsbereiche
  • Anwendungsbezogene Arbeit für den Berufseinstieg
  • Flexible Arbeitsweise

Hinweise zur Bewerbung

  • Grundlegende Programmierkenntnisse sollten vorhanden sein
  • Beginn ist jederzeit möglich
  • Bewerbungen bitte per E-Mail mit aktueller Notenübersicht und Lebenslauf
  • Weitere Informationen auf Anfrage per Mail oder gerne im persönlichen Gespräch

Geteilte Navigation eines intelligenten Rollstuhls mittels EMG-Signalen

Motivation

Mobilitätseinschränkungen haben weitreichende Folgen für den Alltag der Betroffenen und führen neben der körperlichen Einschränkung häufig auch zu psychischen Problemen. Der Rollstuhl stellt für die Betroffenen die einzige Möglichkeit dar, am täglichen Leben teilzunehmen. Aufgrund von Funktionseinschränkungen der oberen Extremitäten, z.B. durch eine Querschnittlähmung, sind jedoch nicht alle Menschen mit Behinderung in der Lage, einen klassischen oder elektrischen Rollstuhl selbstständig zu bedienen.

Ziel des Projektes EMGRoll ist die Entwicklung eines Sensor-Kits, das durch die Kombination von Elektromyographie und Umgebungssensorik eine intuitive Steuerung von elektrisch angetriebenen Rollstühlen ermöglicht. In Zusammenarbeit mit n-squared Lab wird dazu eine EMG-Schnittstelle zu einem intelligenten Rollstuhl erforscht. Am FAPS wird dazu eine geteilte Navigation entwickelt, um die Bewegungssignale intelligent an die Umgebung anzupassen. Dies soll eine intuitive und sichere Steuerung des Rollstuhls auch bei körperlichen Einschränkungen der Betroffenen ermöglichen.

Zielstellung

Ziel dieser Arbeit ist die Entwicklung und Implementierung einer geteilten Navigation (Shared Control) für Personenassistenzsysteme am Beispiel des Blindenassistenzsystems und eines intelligenten Rollstuhls. Darüber hinaus sind weitere Themen auf Anfrage verfügbar.

Die Arbeit beinhaltet folgende Schwerpunkte:

  • Evaluation des aktuellen Stands der Technik der geteilten Navigation (Shared Control)
  • Einarbeitung in das Robot Operating System ROS2
  • Weiterentwicklung einer geteilten Navigation in ROS2
  • Durchführen von Nutzerstudien.

Hinweise / Anforderungen

Grundlegende Kenntnisse oder die Motivation sich in die Programmierung robotischer Systeme einzuarbeiten sollten vorhanden sein. Das Softwaremodul soll in ROS umgesetzt werden, daher sind Vorkenntnisse in C++ oder Python und ROS von Vorteil, allerdings nicht zwangsläufig erforderlich. Der Umfang und die Zielsetzung ist entsprechend der Vorkenntnisse anpassbar.

Der FAPS bietet ein breites Spektrum an Möglichkeiten sich im Bereich Medizintechnik und Robotik auszuprobieren. Studenten bekommen die Gelegenheit mit verschiedenster Hardware und Software zu arbeiten. Die Arbeitsweise ist flexibel und für ein studentisches Umfeld mit Vernetzungsmöglichkeiten wird gesorgt.

Weitere Infos auf Anfrage. Bewerbungen bitte per E-Mail mit aktueller Notenübersicht und Lebenslauf.