Ereignisströme und deren Handhabung – sprich Integration in eine Gesamtarchitektur – wird immer wichtiger. Ereignisse müssen rasch und sicher entgegengenommen, verteilt und analysiert werden, wobei es oft mehrere Konsumenten bzw. Systeme gibt, die sich für ein bestimmtes Ereignis interessieren. Wie aber können diese Ereignisse effizient empfangen und weitergeleitet werden? Hier kommt Apache Kafka ins Spiel, ein verteiltes, hoch-skalierbares Messaging-System, welches eine grosse Menge von Informationen zwischen einer Quelle und einem Empfänger effizient und sicher austauschen kann.

Dieser Vortrag startet mit einer Einführung in Apache Kafka und zeigt dann, welche Rolle Apache Kafka in einer modernen (Big) Data-Architektur spielt und welche Vorteile man damit erreichen kann. Im weiteren wird auf das aktuelle Kafka Ecosystem eingegangen und gezeigt, wie einfach sich Kafka in andere Komponenten wie Apache Storm, Apache Spark, Apache NiFi, etc. integrieren lässt.