Ausgangssituation:
Die Bereitstellung von Deep Learning Modellen direkt auf Edge-Geräten bietet viele Vorteile im Vergleich zur herkömmlichen Bereitstellung in der Cloud. Durch die Eliminierung der Kommunikation können Latenzzeiten und die Abhängigkeit von der Netzwerkverbindung reduziert werden. Da die Daten das Gerät nie verlassen, trägt Edge-Inferenz zur Wahrung der Privatsphäre der Nutzer bei. Zudem können durch die Reduktion der Cloud-Ressourcen und die Edge-Inferenz auch die laufenden Kosten gesenkt werden. Die Verbreitung von Deep Learning Modellen auf Edge-Geräten wird durch die Entwicklung spezieller Hardware-Beschleuniger wie Graphics Processing Units (GPU), Application Specific Integrated Circuits (ASIC) oder Field Programmable Gate Arrays (FPGA) sowohl vorangetrieben als auch gefördert. Eine der größten Herausforderungen bei der Verwendung von FPGAs besteht darin, dass sich das Programmiermodell grundlegend von den meisten Programmiersprachen unterscheidet. Anstatt Anweisungen zu generieren, die von einer Verarbeitungseinheit ausgeführt werden, bedeutet die Programmierung eines FPGAs die Programmierung der eigentlichen Hardware.
Mögliche Aufgabenstellungen:
Während es vereinzelte Bestrebungen zum Einsatz von FPGAs zur Inferenz von neuronalen Netzen gibt, ist die Schwelle für den kontinuierlichen Einsatz und die Einbindung in Produktionsnetzwerke sehr hoch. Das Ziel der Arbeit besteht in der Erarbeitung einer Methodik zur Nutzung von FPGAs für containerisierte Anwendungen unter Berücksichtigung der Methoden Maschinellen Lernens:
- Literaturrecherche zu Hardware-Beschleunigern im Kontext von Künstlicher Intelligenz
- Orientierung an bestehenden Ansätzen von beispielsweise Xilinx, Microsoft oder Intel
- Vergleichende Analyse zu CPUs und GPUs hinsichtlich Latenz, Throughput, Effizienz etc.
- Erarbeitung der Anforderungen für eine Schnittstelle zwischen FPGAs und der Cloud
Erfahrungen in der FPGA-Entwicklung sowie ein tiefgreifendes Verständnis von der Funktionsweise von Central Processing Units (CPU) können hilfreich sein. Nähere Informationen sowie Beginn und Umfang der Arbeit können im Rahmen eines persönlichen Gesprächs besprochen werden. Eine Konkretisierung des Themas erfolgt nach Absprache der persönlichen Interessen.
Hinweise zur Bewerbung:
- Interesse an der Funktionsweise von Computern und Künstlicher Intelligenz
- Möglichkeit der Einarbeitung gegeben; hierfür werden nach Absprache über den vorhandenen Wissensstand praxisnahe Online-Kurse und Bücher bereitgestellt
- Hohe Motivation, Neugierde sowie strukturierte Arbeitsweise
- IT-Affinität sowie Erfahrung in mindestens einer Programmiersprache wünschenswert
- Bewerbungen mit Lebenslauf und aktueller Fächerübersicht bitte per E-Mail an benedikt.scheffler@faps.fau.de
Weitere interessante Themenstellungen im Bereich Machine Learning Operations und Deep Learning sind hier gelistet. Literaturrecherchen sind zu all diesen Themen ebenfalls nach Absprache möglich.
Kategorien:
Forschungsbereich:
ElektromaschinenbauArt der Arbeit:
Bachelorarbeit, Diplomarbeit, Hauptseminar, Masterarbeit, Projektarbeit, StudienarbeitStudiengang:
Energietechnik, Informatik, IPEM, Maschinenbau, Mechatronik, WirtschaftsingenieurwesenTechnologiefeld:
Künstliche Intelligenz und Maschinelles Lernen, Software Engineering und DeploymentKontakt:
Benedikt Scheffler, M.Sc.
Department Maschinenbau (MB)
Lehrstuhl für Fertigungsautomatisierung und Produktionssystematik (FAPS, Prof. Franke)
- E-Mail: benedikt.scheffler@faps.fau.de