Technologie hat in Unternehmen schon lange keine unterstützende Funktion mehr inne – Technologie ist erfolgsentscheidend. Gleiches gilt für den Umgang mit Daten im Unternehmen: Während es in der Vergangenheit ausreichend war, mit den Daten von gestern zu arbeiten, erwarten Prozesse und Endkunden Reaktionen in Echtzeit. Hier setzen viele Unternehmen auf Event-Streaming und betrachten dabei Daten nicht mehr als gespeicherte Datensätze oder temporäre Nachrichten, sondern als ständig aktualisierter Strom von Ereignissen.
Apache Kafka hat sich zum Aufbau von event-getriebenen Architekturen als de-facto Standard etabliert und findet in den unterschiedlichsten Anwendungsfällen Verwendung. Unter Einsatz der erweiternden Komponenten von Confluent Platform entstehen dabei zentrale Daten-"Nervensysteme", deren Aufbau und Umsetzung wir in diesem Vortrag vorstellen werden. Dazu zählen Beispiele aus dem Bankenwesen, der Automobilindustrie oder dem Transportwesen.
Kai Wähner ist Evangelist bei Confluent, dem Unternehmen hinter Apache Kafka. Seine Schwerpunkte sind Big Data Analytics, Machine Learning / Deep Learning, Messaging, Integration, Microservices, Stream Processing, Internet of Things und Blockchain. Er ist regelmäßig Sprecher bei internationalen Konferenzen wie JavaOne, O’Reilly Software Architecture oder ApacheCon und schreibt Artikel für Fachmagazine.