Deep Learning (DL) ist ein wichtiger Bestandteil in vielen Gebieten aktueller Forschung. Während Neuronale Netze (NN) i.d.R. auf leistungsstarken Serversystemen trainiert werden, stellt sich zu Beginn vieler Projekte meist die Frage, wie leistungsstark Hardware für Inference sein muss. Gerade im Bereich der Embedded Systeme ist dies keine einfach zu beantwortende Frage. Im Rahmen der Studien soll eine Möglichkeit für geeignete Standard-Benchmarks für Inference bzgl. Throughput, Latenz und Modellqualität auf Embedded Systemen untersucht werden. Zentral ist dabei die Frage, welche NN sich für diese Benchmarks eignen. Weiterhin soll untersucht werden, ob diese Benchmarks extrapoliert werden können, z.B. bei geänderter Auflösung von Bildern. Dies ermöglicht zu Projektbeginn Hardwareanforderungen in Abhängigkeit der Datenbeschaffenheit besser abschätzen zu können.
Die Ziele der Arbeit sind eine Deep Learning Infrastruktur für Benchmarking
auf Embedded Systemen (NVIDIA Jetson Nano, X1, Xavier) zu konzeptionieren, eine Auswahl von geeigneten Datensätzen und Parametern zur Durchführung von Benchmarks zu finden und die Untersuchung der Generalisierung bzgl. Extrapolation für geänderte Eingabedaten.
Für mehr Informationen lesen Sie bitte die Ausschreibung weiter unten.
Bei Interesse oder Fragen melden Sie sich bitte bei Stephan Gimbel.