Apache Ranger ist Top-Level-Projekt: Security-Management für Hadoop-Systeme

© Shutterstock / Orhan Cam
Apache Ranger hat den Schritt aus dem Inkubator getan und ist nun offiziell Top-Level-Projekt der Apache Software Foundation. Ranger ist ein Framework für die konsistente Definition, Administration und das Management von Security Policies in Hadoop-Systemen.
Mit der Einführung von Apache YARN unterstützt Hadoop eine Data-Lake-Architektur. Das bedeutet, dass die Daten in ihrer ursprünglichen Formaten gespeichert werden, aber in verschiedenen Schemata oder Strukturen zusammengestellt werden können. Unternehmen können so mehrere Workloads in einer Multi-Tenant-Umgebung laufen lassen. Die Datensicherheit von Hadoop musste also den neuen Anwendungsfällen für Datenzugriffe gerecht werden. Gebraucht wurde eine Framework, das zentrale Administration von Sicherheitsregeln ermöglicht und Anwenderzugriffe überwacht. Hier kommt Apache Ranger ins Spiel.
Das Big-Data-Security-Management-Framwork soll nach Aussagen der Entwickler das breiteste Angebot an Security-Komponenten aufweisen. Es bietet native Unterstützung für verschiedene Apache-Projekte, darunter Atlas (noch im Inkubator), HBase, HDFS, Hive, Kafka, Knox, NiFi, Solr, Storm und eben YARN.
Ranger ermöglicht einen einfachen und effizienten Weg, Regeln für die Zugangskontrolle zu setzen und die Daten über den kompletten Hadoop-Stack zu auditieren. Einer der Kernpunkte des Frameworks ist, das Security-Admins die Regeln für die Zugangskontrolle von einem zentralen Punkt aus für das komplette Hadoop-Ökosystem konsistent managen können. Es ist außerdem möglich, Autorisierungssysteme als Plug-ins zu Ranger hinzuzufügen, die nicht zum Hadoop-Kosmos gehören.
Auf dem Hadoop Summit 2016 zeigten Nanda Vijaydev und Abhiraj Butala (beide BlueData) wie man Ende-zu-Ende-Security und Auditing in einer Big-Data-Anwendung mit Ranger umsetzt.
Hinterlasse einen Kommentar