BigDataCon 2012

Big Data ist anders – wie anders zeigte die BigDataCon 2012

Mirko Schrempp

Big Data ist anders und neu, Big Data ist ein Faktum und Phänomen, aber auch Marketing. Big Data ist Chance und große Herausforderung zugleich, vor allem aber ist es schwer zu fassen. Das zeigten auch die vielen Sessions der ersten BigDataCon im Rahmen der JAX 2012 in Mainz.

Keiner der Speaker hatte eine einfache Definition von Big Data parat, schon gar nicht die scheinbar naheliegende, dass es sich um große Datenmengen handelt. Das ist zwar der offensichtliche Aspekt von Big Data: die schiere Datenmenge und ihre rapides Wachstum, das beispielsweise beschleunigt wird durch die Zunahme von Sensoren, getrackten Onlineaktivitäten, den vielen scheinbar beiläufigen Daten, die von Smartphones, vernetzten Autos oder Satellitenaufnahmen in Exabytegröße täglich produziert und angesammelt werden. Doch diese Tatsache reicht nicht aus.

Es ist nicht die Mega-, Peta- oder Exabytegrenze, die das Phänomen bestimmt, sondern ein in der Regel sehr komplexes Szenario, das zum Ziel hat, aus der vorhanden Datenmenge einen Value zu Tage zu fördern, um das Geschäftsziel eines Unternehmens befördern. Chris Blessington (EMC), stellte in seiner Keynote auch die Möglichkeit in Aussicht, durch die Analyse weltweit verfügbarer Daten Krankheiten zu erforschen oder den Umweltschutz voranzubringen.

Dabei geht es darum, die Daten zu nutzen, die schon jetzt allgemein verfügbar sind. Laut Pavlo Baron, Moderator der BigDataCon und Lead Architect bei Codecentric, ist es daher der beste Einstieg, möglicherweise sogar der einzige in das Thema Big Data, einen sinnvollen Use Case zu entwickeln, um aus den schon vorhandenen Daten neue Werte zu schaffen.

Hat man diesen Schritt aber erst einmal getan, fangen die Probleme aber erst an. Denn jetzt treffen die Entwickler und Architekten auf völlig neue Problem, und darin waren sich alle Speaker einig. Big Data funktioniert nur, wenn die IT und die Business-Seite bereit sind, gemeinsam neue Wege zu gehen und den Mut haben, neue Kommunikations- und Vorgehensweisen zur erlernen. Es reicht bei weitem nicht aus, herkömmliche BI-Tools einzusetzen und teure, schwerfällige Datenbanken gegen NoSQL-Lösungen auszutauschen. Für die Herausforderungen, die sich im Big-Data-Bereich ergeben, gibt es weder fertig Tools noch Best Practices, auch wenn manche Marketingabteilungen das vollmundig versprechen. Jedes Big-Data-Projekt hat seine eigenen Hürden und muss mit einer individuell kombinierten Tool Chain gemeistert werden. Baron weißt dabei darauf hin, dass das wichtigste Tool „your own brain“ sei.

Tatsächlich zeigte sich in den einzelnen Sessions immer wieder, dass die Projekte zunächst auf konventionelle Weise gestartet wurden, spätestens beim Live-Einsatz sich Probleme zeigten, auch wenn zuvor die Testsysteme funktioniert haben. Die Anzahl der Abhängigkeiten in einem Big-Data-Projekt liegt weit höher als in „normalen“ Projekten und allein die Wahl des Tools kann sich schon schwierig gestalten, wie Uwe Friedrichsen und Patrick Peschlow (codecentric AG) in ihrem Vortrag zeigten. Ziel ihres Projekts ist eine cloudbasierte Dokumentenverwaltung, die beliebig weit skalierbar sein sollte. Allein die Tatsache, vorab nicht zu wissen, wie groß die Datenmenge und die Anzahl der neuen Knoten sein würde, die in keiner Weise die Performanz und Zuverlässigkeit beeinträchtigen sollen, führte dazu, dass im Laufe des Projekts mehrfach die Technologie gewechselt werden musste – jedes Mal schmerzhaft, aber jedes Mal auch eine notwendige und neue Erfahrung.

Ähnliches berichteten auch Stefan Igel (inovex) und Dirk Schmid (1&1 Internet AG) über die Einführung eines Enterprise-Hadoop-Clusters, das mehr verlangt als gute MapReduce-Jobs und die passende Hardware. Zwar biete das Hadoop-Ecosystem viele hervorragende Lösungen, aber man müsse viel Neues lernen, viel ausprobieren und möglichst frühzeitig alle Steakholder ins Boot holen.

Probleme ganz anderer Art hatte Darach Ennis (Push Technology Ltd) zu bewältigen. Da er im Trading- und Gaming-Geschäft aktiv ist, ist nicht die quantitative Skalierbarkeit sein Fokus, sondern Performanz, Latenzen, Netzwerkkapazität und scheinbar so banale Dinge wie die Akku- und Prozessorleistung von mobilen Geräten. Ennis wies in der abschließenden Panel-Diskussion auch darauf hin, dass gerade die Leistungszunahme der mobilen Geräte neue Möglichkeiten für Big Data aber auch Big Business eröffne, wie z.B. dezentrale Auktionsplattformen.

Die BigDataCon zeigte deutlich, dass sich den Entwicklern und Unternehmen ganz neue Möglichkeiten eröffnen, mit ihren Technologien und Daten Value zu schaffen und sich der Herausforderung zu stellen, ihr Wissen und ihre Kompetenz zu nutzen, um die bisher festgelegten Grenzen zu sprengen.

Geschrieben von
Mirko Schrempp
Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.