Klar, Python-Programmierung gehört zum gängigen Setup aktueller Data Science-Projekte: großer Funktionsumfang, professionell und "at Scale" einsetzbar (PySpark).

Diese Möglichkeiten interessieren längst schon Anwender aus dem Datenbankumfeld, nun aber auch ambitionierte Business Intelligence-Anwender und Datenanalysten, die zur Umsetzung ihrer Ideen nicht allein auf Drag-und-drop-Werkzeuge setzen wollen oder schon längst mit SQL, Excel-Makros bzw. anderen Skriptsprachen arbeiten.

Der Talk stellt in diesem Kontext vor und auch zur Diskussion:

  1. Sind interaktive Notebooks bereits die Next-Gen Self-service Plattformen? Und wie gut funktioniert die Kombination SQL/Python im Zusammenspiel? Interessant für alle, die über ein Up-Skilling für sich selbst oder das eigene Team nachdenken! ... und für Data Engineering, schnelles Prototyping und Data App-Entwicklung:
  2. DataFrame–style Programmierung direkt gegen die Datenbank: Im Vergleich zu langen SQL-Anweisungen lassen sich schon einmal mit (viel) weniger Python Codezeilen gleiche Aufgaben lösen und auch einfacher debuggen. Bei begrenzten Compute-Ressourcen hilft ein leistungsfähiges Backend - aber muss es dazu immer ein Spark-Cluster sein?
  3. Und wie benutzt die Fachabteilung das neue Datenprodukt? Die neue Visualisierung bzw. das trainierte ML-Modell akzeptiert parametrisierten Anwender-Input für Darstellung bzw. Vorhersagen und bietet vielleicht auch eine REST-API zu Integrationszwecken an. Wenn die Zeit aber mal sehr knapp ist: wie lassen sich mit Python schnell voll funktionsfähige Apps für Datenkonsumenten und Fachanwender bereitstellen?