Hardware

Server

Bei Testfahrten, Versuchen und Wettbewerben werden alle Daten, die im Fahrzeug von Sensoren und Software erzeugt werden, mitgeschnitten.
Bestimmte Situationen können so im Büro genau analysiert und neu durchgespielt werden.
Dadurch können wir unsere Algorithmen stetig anhand realistischer Daten verbessern.

Es fallen dabei sehr große Datenmengen an, die gespeichert und verwaltet werden müssen. Unsere Serversysteme bieten hier >100 TB Kapazität für Messdaten, Videos und andere Datenbestände.

 

Neben der Aufgabe als Archivserver laufen auch andere Dienste auf dem Server:

  • Gitlab als web-basiertes git-Repository, Wiki und Ticket-System
  • zentrale Benutzerverwaltung und Domänencontroller
  • IncrediBuild zum beschleunigten Kompilieren des Quellcodes durch Einbezug alles Rechner des Instituts

 

Weitere Server unterstützen hier im Hintergrund mit weiteren Diensten den Betrieb.

CUDA-Server

Das Training von tiefen Neuronalen Netzen braucht nicht nur große Datenmengen, sondern ist auch sehr rechenintensiv.
Durch massive Parallelisierung bleibt es dennoch in einem akzeptablen Zeitrahmen.
Als besonders effizient für solche Aufgaben haben sich Grafikkarten (GPUs) herausgestellt.

Wir besitzen einen Server speziell für Deep Learning, mit dem wir Netze trainieren und auswerten können:

  • 2 x Nvidia GeForce GTX 1080 (Pascal)
  • 2 x Nvidia TITAN X (Pascal)
  • 64 GB RAM
  • 2 x Intel Xeon CPU E5-2620 v4

 

Continuous Integration (Build-Server)

Software Qualität spielt in der Entwicklung eine entscheidende Rolle. Wir arbeiten alle an einer gemeinsamen Codebasis um von den Entwicklungen des jeweils anderen zu profitieren.

Zu diesem Zweck existiert an unserem Institut ein Build-Server mit Continuous Integration. Der entwickelte Code wird dabei nur integriert, wenn er sämtliche Tests erfolgreich besteht.
Dadurch ist gewährleistet, dass alle Mitarbeiter stets Zugriff auf einen funktionierenden Softwarestand haben.