Tickets

Die effiziente Verarbeitung großer Datenmengen benötigt eine Menge Rechenleistung. Dies gilt schon für die Datenaufbereitung, und erst recht für das Trainieren von Machine-Learning-Modellen und die Anwendung dieser Modelle beim Model Scoring. Wo nimmt man nun diese Rechenleistung her, wenn man keinen Spark Cluster oder GPUs im Keller stehen hat? Um leistungsstarke Compute Engines on-demand zu provisionieren bietet sich die Nutzung von Containern (Docker und Kubernetes) an. Diese können hier sowohl im eigenen Rechenzentrum als auch in der Cloud lokalisiert sein.

Dieser Vortrag liefert einen Überblick über die Möglichkeiten, Grenzen und Konzepte der Nutzung von Docker und Kubernetes in Data-Science-Projekten, sowie konkrete Beispiele, wie Container in Data-Science-Projekten eingesetzt werden können.