JAX Countdown

"Die Substanz ist für mich fundamental": Big Data jenseits des Hype

Hartmut Schlosser

Als Erweiterung der JAX findet in diesem Jahr zum ersten Mal die BigDataCon statt. Die Konferenz startet am 16. April mit dem Doppel-Workshop: „A Programmatic Introduction to the Neo4j Graph Database“ mit Ian Robinson (Neo Technology) und „No Frills Big Data Workshop“ mit Dominik Wagenknecht (Accenture). Im JAX-Countdown gibt Dominik Wagenknecht einen Ausblick und klärt die Frage, welche Substanz der Big-Data-Trend nach Abzug des Hype-Faktors hinterlassen wird.

Porträt

Dominik Wagenknecht ist als Technology Architect bei Accenture in Wien tätig und bringt neben der Projektarbeit das Thema NoSQL innerhalb Accenture voran. Weiters beschäftigt er sich intensiv mit modernen Architekturen; wobei hierbei ein fließender Übergang zur Freizeit vorliegt in der er immer wieder neue Sprachen und (marktreifeferne) Technologien austestet. Er war bisher in den Bereichen Public und Financial Services als Architekt tätig, derzeit ist er im Logistikbereich.

JAXenter: Viele heutige Big-Data-Technologien basieren auf dem MapReduce-Algorithmus. MapReduce wurde 2004 von Google vorgestellt – scheinbar ein alter Hut also. Weshalb bekommt MapReduce jetzt immer mehr Bedeutung?

Dominik Wagenknecht: Ich denke, das hängt mit zwei Dingen zusammen: zunächst mit einem gereiften Ökosystem und darüberhinaus damit, dass die allgemeine Datenexplosion inzwischen auch „normale“ Unternehmen trifft. Zum Ökosystem muss man sagen, dass 2004 ein Paper zu genanntem MapReduce erschien; da musste man also noch die Datenverteilung, Parser, etc. selbst bauen, und insbesondere Lisp-Nutzer oder JCL-Gurus waren verständlicherweise mäßig beeindruckt. Erst 2006, als Google das BigTable Paper veröffentlichte und infolge 2007 erstmals HBase mit Hadoop lief, kam kräftig Bewegung in die Dinge (im Sinne eines praktisch einsetzbaren Frameworks). Zugleich wurden immer mehr Daten gesammelt und selbige auch als strategische Informationsquelle erkannt.

JAXenter: Nun ist Big Data ja auch ein Hype-Thema – kaum ein Analyst, der seinen Kunden nicht eine Big-Data-Strategie nahelegt. Was von Big Data ist Ihrer Meinung nach Hype – und was Substanz jenseits des Hypes?

Dominik Wagenknecht: Die Substanz ist für mich fundamental: Horizontal skalierbare Datenverarbeitung bei voller Anerkennung, dass Maschinen ausfallen, Netzwerke langsam sind und Daten nunmal – auch bei SSD’s – am schnellsten „von vorne nach hinten“ gelesen werden. Man akzeptiert also die Realität und bricht dabei auch mit gewohnten „Best Practices“. Im klassischen Java-EE-Architekturkanon hätte Business-Logik nichts im „Datenbanklayer“ verloren. Substanz vom Hype zu trennen ist schwierig; es gibt viele, kleine wie große Projekte und Firmen, die mit soliden Konzepten und Produkten unser aller Lösungssprektrum erweitern. Zugleich muss man leider genau hinsehen, da offenbar jeder plötzlich Big Data bei sich entdeckt.

JAXenter: Wie sollte man anfangen, wenn man sich als „Big-Data-Entwickler“ ausbilden möchte?

Dominik Wagenknecht: Eine formal anerkannte Ausbildung entwickelt sich naturgemäß immer erst zuletzt, soweit ist das Umfeld meines Erachtens noch nicht. Persönlich würde ich bei den grundlegenden Theorien für verteilte Systeme beginnen und dadurch erst über einen kleinen Umweg mit CAP und Dynamo in Richtung MapReduce und Hadoop-Ökosystem gehen. Letzteres hat sich berechtigterweise zum Standard entwickelt, und dazu gibt es auch viele Ressourcen: von vielen frei verfügbaren Videos in der Cloudera University und auf YouTube bis zur inzwischen – zumindest als eBook – dritten Edition des Hadoop-Standardwerks von Tom White.

JAXenter: Und worauf dürfen sich die Teilnehmer an Ihrem BigDataCon Workshop freuen?

Dominik Wagenknecht: Auf ihren ersten MapReduce Job und spannende Diskussionen. Es geht uns darum, die Prinzipien zu vermitteln und die Verbindung zur praktischen Implementierung herzustellen; nicht darum, mit einer ewig langen Featureliste aufzuwarten. Wenn die Teilnehmer danach zuversichtlich sind zu beurteilen, ob ein bestimmter Zugang in ihrem Anwendungsfall nun sinnvoll ist oder nicht, haben wir alle gewonnen.

JAXenter: Vielen Dank für dieses Interview und viel Spaß auf der JAX bzw. BigDataCon!

BigDataCon Workshops

16.04.2012 | 09:00 – 17:00 Uhr

Der Workshop-Tag der BigDataCon bietet Ihnen zwei spannende Themen: Starten Sie vormittags mit einem Workshop zu Neo4j und lernen Sie am Nachmittag alles über Hadoop Map/Reduce – und das alles garantiert praxisnah und Hands-on!

A Programmatic Introduction to the Neo4j Graph Database

Ian Robinson Neo Technology


Neo4j is a JVM-based graph database. Its graph data model is intuitive and expressive, mapping closely to your whiteboard domain model. For highly connected data, Neo4j is thousands of times faster than relational databases, making it ideal for managing complex data across many domains, from finance to social, telecoms to geospatial. This tutorial covers the core functionality of the Neo4j graph database. With a mixture of theory and entertaining hands-on coding sessions, you’ll quickly learn how easy it is to develop a Neo4j-backed application. Sessions include:

  • NOSQL and Graph Database overview
  • Neo4j Fundamentals and Architecture
  • The Neo4j Core API
  • Neo4j Traverser APIs
  • Declarative querying with Cypher

Each session (apart from the fundamentals and architecture) comprises a set of practical exercises designed to introduce and reinforce an aspect of the Neo4j stack. The practical parts of the tutorial consist of Koan-style lessons where a specific aspect of the Neo4j stack is presented as a set of failing unit tests that participants will work to fix. The exercises gradually become more challenging until the attendees are capable of implementing sophisticated graph operations against Neo4j. Attendees won’t need any previous experience with Neo4j or NOSQL databases, but will require some fluency in Java, a little familiarity with a modern IDE, and a basic understanding of JUnit to help complete the lab tasks.

Der No Frills Big Data Workshop

Dominik Wagenknecht Accenture

Dieser Workshop bietet eine Hands-on-Einführung in klassisches Big Data mit Hadoop Map/Reduce ohne aufregende Buzzwords und aufgepumpte Visionen. Hierbei lernen Sie die zugrunde liegenden Prinzipien kennen und schreiben im Nu Ihre eigenen MapReduce-Jobs gegen ein frei verfügbares Datenset des Wikipedia-Projekts. Verwendet werden hierzu auch ausschließlich Softwarekomponenten, die unter der Apache 2.0 License stehen, über die wir Ihnen ebenfalls einen Überblick verschaffen wollen. Damit bieten wir Ihnen eine gesunde und unmittelbar nutzbare Basis: willkommen in der Welt von Big Data.

Alle Infos unter: http://bigdatacon.de/2012/

Geschrieben von
Hartmut Schlosser
Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.