Hadoop-Cluster analysieren mit Jumbune

Claudia Fröhling

Jumbune ist ein Open-Source-Projekt, das beim Profiling und Debugging von Hadoop-Jobs dem Entwickler oder Administrator unter die Arme greifen soll. Mit Jumbune lassen sich Hadoop-Cluster verwalten und Daten auf HDFS validieren. Das Projekt verfügt über Features wie eine Hadoop Job Flow Analyzer, MapReduce Job Profiler und Cluster Monitor.

Jumbune 1.1 aktualisiert auf Netty 4.x

Aktuell ist Version 1.1 des unter GNU GPL stehenden Projekts verfügbar. Das Release aktualisiert auf Netty 4.x und bringt eine Export-Option für den Debugger und die Datenvalidierung. Auch Bugfixes sind in Jumbune 1.1 enthalten.

Erst vor einem Monat war das erste Major Release von Jumbune erschienen, mit neuen Funktionen wie Flow Debuggung, Cluster Monitoring, JVM Profiling und HDFS Validation. Mehr Informationen bietet die Projektseite.

Geschrieben von
Claudia Fröhling
Claudia Fröhling
Claudia Fröhling hat in verschiedenen Redaktionen als TV- und Onlineredakteurin gearbeitet, bevor sie 2008 zur Software & Support Media GmbH kam und sich bis 2014 um alle Projekte des Verlages im Ressort Java kümmerte. Claudia hat einen Abschluss in Politikwissenschaften und Multimedia Producing. Ihr Google+ Profil findest du hier.
Kommentare

Hinterlasse einen Kommentar

Hinterlasse den ersten Kommentar!

avatar
400
  Subscribe  
Benachrichtige mich zu: