Nichts schlägt den Hauptspeicher eines Rechners, wenn es darum geht, schnell auf Daten zuzugreifen, diese zu analysieren, sie zu durchsuchen. Was hindert uns also daran, diese Vorzüge im großen Maßstab zu nutzen? Lange Zeit war es die Größe des verfügbaren Speichers und seine Verlässlichkeit. In-Memory Data Grids adressieren genau diese Nachteile und erlauben es, sehr leistungsfähige Architekturen aus Commodity Hardware aufzubauen. Scaling-Out, Resilience und Elasticity sind die Konzepte, die aus einem gewöhnlichen Rechnerverbund einen Supercomputer entstehen lassen. Die Größe des Data Grids kann dynamisch dem aktuellen Ressourcenbedarf angepasst werden und überraschende Ausfälle werden durch Failover-Mechanismen abgefedert. Und natürlich werden nicht nur die Daten im Cluster verteilt, sondern auch die auszuführenden Arbeiten.
Der Talk erläutert In-Memory Data Grids am Beispiel von Hazelcast – einer Open Source-Implementierung die durch ihre Leichtgewichtigkeit überzeugt und zum Ausprobieren einlädt. Neben einer theoretischen Einführung in die Konzepte von In-Memory Data Grids, zeigen viele kleine Beispiele den praktischen Einsatz dieser Technologie.