Motivation

Am FAPS wird ein intelligenter Rollstuhl entwickelt, der durch moderne Navigationstechniken wie Reinforcement Learning oder Imitation Learning auch in dynamischen Umgebungen zuverlässig und sozial verträglich agieren kann. Um das subjektive Nutzererlebnis – insbesondere den Passagierkomfort– wissenschaftlich zu bewerten, ist ein realitätsnahes und zugleich kontrollierbares Testumfeld erforderlich.

Während VR-Simulationen bereits zur Bewertung genutzt wurden, erlaubt eine Mixed-Reality-Umgebungnun eine neue Stufe: Die reale Fortbewegung im Rollstuhl wird beibehalten, während die Umgebung über eine VR-Brille standardisiert und kontrolliertdargestellt wird – unabhängig vom realen Umfeld.

Zielsetzung

Ziel dieser Arbeit ist die Entwicklung eines Mixed-Reality-Demonstrators, bei dem sich reale ProbandInnen mit dem echten Rollstuhl durch eine Halle bewegen, während sie durch eine VR-Brille eine belebte, virtuelle Umgebung erleben. Alle Probandnnen sehen dadurch die exakt gleiche Szene (z. B. Fußgängerströme, Hindernisse), obwohl sie sich physisch in der realen Welt fortbewegen.

Dies ermöglicht die vergleichende Bewertung verschiedener Navigationsalgorithmen unter identischen Bedingungen aus Sicht der fahrenden Person – mit besonderem Fokus auf Komfort, Sicherheit und soziale Akzeptanz.

Inspiration liefern unter anderem folgende Veröffentlichungen:
Human Comfort Factors in People Navigation: Literature Review, Taxonomy and Framework
HuNavSim 2.0

Arbeitsschritte

– Analyse bestehender Systeme zur synchronisierten Darstellung virtueller Szenen bei realer Bewegung
– Auswahl geeigneter Tracking- und Simulationsmethoden (z. B. für Meta Quest 2)
– Konzeption eines Mixed-Reality-Setups in einer Halle mit realem Rollstuhl
– Entwicklung eines Szenenplayers (z. B. Unity-basiert), der eine definierte, belebte Szene über VR darstellt
– Synchronisierung der realen Rollstuhlbewegung mit der virtuellen Darstellung
– Aufbau und Test eines Demonstrators mit Beispielszene

Was wir bieten

– Arbeit mit direktem Praxisbezug an der Schnittstelle von Robotik, Mixed Reality und Nutzerforschung
– Entwicklung mit moderner Hardware (intelligenter Rollstuhl, Meta Quest 2, Motion Tracking)
– Interdisziplinäre Betreuung und Einblicke in angewandte Forschung
– Gestaltungsfreiraum bei Konzeption und technischer Umsetzung
– Kollegiales Umfeld am FAPS und flexible Arbeitszeiten

Anforderungen & Bewerbung

– Interesse an Mixed Reality, Simulation oder Mensch-Maschine-Interaktion
– Grundkenntnisse in Unity (C#) oder verwandten Tools wünschenswert, aber nicht zwingend notwendig
– Technisches Verständnis und Kreativität in der Lösungsfindung
– Beginn jederzeit möglich

Bewerbung bitte per E-Mail mit kurzer Notenübersicht und Lebenslauf.
Bei Fragen oder zur Besprechung erster Ideen gerne auch ein persönliches Gespräch.

Kategorien:

Forschungsbereich:

Robotik

Art der Arbeit:

Bachelorarbeit, Masterarbeit, Projektarbeit

Studiengang:

Informatik, Maschinenbau, Mechatronik, Medizintechnik

Technologiefeld:

Medizintechnik

Kontakt:

Matthias Kalenberg, M.Sc.

Koordinator Technologiefeld Autonome Mobile Systeme

Department Maschinenbau (MB)
Lehrstuhl für Fertigungsautomatisierung und Produktionssystematik (FAPS, Prof. Franke)