Suche
Eine zentrale Datenstrompipeline für moderne Datenintegration

Confluent Platform 2.0: Apache Kafka für Unternehmen

Michael Thomas

© Shutterstock.com/Viktorus

Das von den Machern des quelloffenen Message-Brokers Apache Kafka ins Leben gerufene Unternehmen Confluent hat die Veröffentlichung der quelloffenen Confluent Platform 2.0 bekannt gegeben. Die Plattform stellt Komponenten zur Verfügung, die der Erstellung einer skalierbaren Datenplattform auf Basis von Apache Kafka dienen. Die gebotenen Features sollen vor allem die Bedürfnisse der steigenden Zahl von Enterprise-Nutzern befriedigen.

Grundlage der quelloffenen Confluent Platform bildet eine aktualisierte Variante der Ende November dieses Jahres veröffentlichten Apache-Kafka-Version 0.9. Confluent Platform 2.0 will den Aussagen der Entwickler zufolge den Herausforderungen der modernen Datenintegration durch Bereitstellung einer zentralen Datenstrompipeline begegnen: Sie wandelt Daten in Niedriglatenz-Streams um und fungiert als Puffer zwischen Systemen, die derartige Daten auf unterschiedliche Weise produzieren und konsumieren.

Lesen Sie auch: Kafka 101. Massive Datenströme mit Apache Kafka

Vorteile für Unternehmen …

Confluent Platform 2.0 soll insbesondere für Unternehmen interessant sein, die mit sensiblen persönlichen, finanziellen oder medizinischen Daten zu tun haben und Multimandanten-Umgebungen mit strengen Qualitäts- und Servicestandards betreiben. Neben einer Netzwerkverschlüsselung mit SSL bietet die Plattform eine Zugriffskontrolle via Berechtigungen, die für einzelne Nutzer oder Anwendungen erteilt werden können, sowie konfigurierbare Quoten, die zwecks Sicherstellung der Servicequalität eine Drosselung der Lese- und Schreibvorgänge ermöglichen. Des Weiteren soll das mit Kafka 0.9 eingeführte Feature Kafka Connect groß angelegte Echtzeit-Datenimporte und -exporte erleichtern, wodurch eine einfache Integration verschiedenster Datenquellen mit Kafka möglich sein soll, ohne dafür Code schreiben zu müssen.

… und Entwickler

Die mit Hilfe von Kafka realisierbare zentralisierte Datenpipeline soll sowohl  Microservices als auch eine für Unternehmenszwecke geeignete Datenintegration ermöglichen. Dazu zählen beispielsweise Aufnahmerouten hoher Kapazität für Apache Hadoop und traditionelle Data-Warehouses. Zudem soll sie als Basis für die Stream-Verarbeitung via Apache Spark, Storm, Samza oder ähnlichen Engines dienen können. Zu den für Entwickler interessanten Features zählen u. a. ein neuer Java-Consumer sowie ein voll unterstützter C-Client. Insgesamt bietet das Release rund 500 Performance-, Betriebs- und Verwaltungsverbesserungen.

In einem einführenden Artikel auf dem Unternehmensblog stellt die die Kafka-Schöpferin Neha Narkhede die Neuerungen der Plattform im Detail vor.

Aufmacherbild: Abstract Data stream von Shutterstock.com / Urheberrecht: Viktorus

Geschrieben von
Michael Thomas
Michael Thomas
Michael Thomas studierte Erziehungswissenschaft an der Johannes Gutenberg-Universität Mainz und arbeitet seit 2013 als Freelance-Autor bei JAXenter.de. Kontakt: mthomas[at]sandsmedia.com
Kommentare

Hinterlasse einen Kommentar

Hinterlasse den ersten Kommentar!

avatar
400
  Subscribe  
Benachrichtige mich zu: