Suche
Impressionen von der BigDataCon

Daten für alle: Auf der Suche nach der digitalen Dividende

Michael Thomas

Auch auf der diesjährigen, im Rahmen der JAX stattfindenden BigDataCon wurden aktuelle und praxisrelevante Informationen sowie Orientierungshilfen für Softwarearchitekten, Datenbankexperten und IT-Entscheider präsentiert.

Big Data ist eine große Herausforderung, bietet jedoch gleichzeitig große Chancen und Perspektiven, alte Probleme auf neue Art und Weise zu lösen, wie die Speaker Kai Wähner und Florian Hopf in ihren Sessions auf der BigDataCon mit zahlreichen Praxisbeispielen eindrucksvoll belegen konnten.

Die Bürde von Big Data erleichtern

Bei In-Memory Data Grids geht es um deutlich mehr als nur um Caching“: Mit diesem Satz lässt sich das Kernthema der Session „NoSQL in Practice – Real World Use Cases for In-Memory Computing“ von Kai Wähner recht deutlich umreißen. Denn der Mehrwert von In-Memory-Computing kann beträchtlich sein. In-Memory ist günstiger als herkömmliche Hardware-Lösungen – auch wenn es im Vergleich zu Disks teurer ist – und bietet sich vor dem Hintergrund explodierender Anforderungen als mögliche Lösung an, auch da es sich im Gegensatz zu traditionellen Herangehensweisen skalieren lässt.

Die Use Cases gestalten sich denkbar vielfältig. Durch weniger Backend-Zugriff lassen sich etwa Transaktionskosten reduzieren, wie Wähner anhand der MGM-Casinos in Las Vegas demonstrierte. Deren System merkt sich bei regelmäßigen Gästen etwa das durchschnittliche Spiellimit. Steht der Gast kurz davor, dieses zu erreichen, werden beispielsweise Daten des hauseigenen Restaurants abgerufen. Weisen diese darauf hin, dass etwa noch zahlreiche Steaks auf Lager sind, die schnell verbraucht werden müssen, erhält der Gast automatisch eine SMS, die ihm einen Restaurantbesuch empfiehlt – Rabatt für ein Steak inklusive. Die Idee dahinter ist natürlich, den Gast länger im Etablissement zu halten – vielleicht spielt er dann ja doch noch eine Runde weiter.

Auch für das Handling temporärer Leistungsspitzen bieten sich In-Memory Data Grids an. So können es Unternehmen beispielsweise umgehen, nur wegen des typischerweise deutlich stärkeren Weihnachtsgeschäfts ihr komplettes System auszubauen – das die restlichen 11 Monate des Jahres dann unterfordert oder ungenutzt wäre. Ebenfalls denkbar ist der Einsatz als Operational Data Store, beispielsweise zur Inventarverwaltung im Einzelhandel: Dieser hat generell mit dem Problem zu kämpfen, dass die gewachsenen Legacy-Systeme es nicht ermöglichen, ihren Lagerbestand in Echtzeit abzurufen, sondern erst einen Tag später, wenn die Anfrage im Data Warehouse verarbeitet wurde – der potentielle Kunde hat sich dann im Zweifelsfall jedoch entnervt für einen Kauf bei Amazon und Co entschieden. Werden die Daten In-Memory gespeichert, kann dieses Problem umgangen werden. Auch Kaufempfehlungen direkt im Laden lassen sich so realisieren.

Last but not least sind auch weniger Business-getriebene Anwendungszenarien wie etwa Risikoanalysen, bei denen man möglichst schnelle Antworten erhalten will, vorstellbar.

„Zum Glück reden mittlerweile viele Firmen darüber, was funktioniert und was nicht“

Auch für die verteilte Volltextsuchmaschine Elasticsearch existieren zahlreiche Use Cases, die weit über den klassischen Anwendungsfall hinausgehen, wie Florian Hopf in seiner Sessions aufzeigen konnte.

Ein Beispiel betrifft die Geo-Suche – da es sich dabei um strukturierte Daten handelt nicht unbedingt ein Bereich, den man mit der Volltextsuche in Zusammenhang bringt. Im Business-Bereich spielt sie u.a. bei der Suche nach Filialen, der Sortierung von Kleinanzeigen, generell der Filterung auf geographische Nähe eine Rolle. Auch bei der Auswertung sozialer Netzwerke wie Facebook oder Twitter kann sie zum Einsatz kommen, etwa um festzustellen, wo in einer Stadt interessante Events stattfinden. Letzteres mag zwar eher eine Spielerei sein, allerdings sind auch ernsthafte Szenarien wie im Bereich Katastrophenschutz denkbar. Geoberechnungen werden von Elasticsearch übrigens automatisch durchgeführt, der Arbeitsaufwand, der in diesen Teil der Volltextsuchmaschine floss, ist beträchtlich (beispielsweise ist gar die Erdkrümmung einberechnet).

Auch eine Zentralisierung von Logs ist mit Hilfe von Elasticsearch machbar, zum Beispiel um eine leichte Durchsuchbarkeit sowie Echtzeit-Analysen bzw. -Visualisierungen zu realisieren, was Hopf unter dem treffenden Slogan „Daten für alle“ subsumierte.

Stellvertretend für die insgesamt 16 Sessions konnten Wähner und Hopf zeigen, dass sich Entwicklern und Unternehmen mit etwas Kreativität ganz neue Möglichkeiten eröffnen, mit ihren Technologien und Daten eine „digitale Dividende“ zu erwirtschaften, mit ihren Technologien und Daten Value zu schaffen und sich der Herausforderung zu stellen, ihr Wissen und ihre Kompetenz zu nutzen, um die bisher festgelegten Grenzen zu sprengen.

Verwandte Themen:

Geschrieben von
Michael Thomas
Michael Thomas
Michael Thomas studierte Erziehungswissenschaft an der Johannes Gutenberg-Universität Mainz und arbeitet seit 2013 als Freelance-Autor bei JAXenter.de. Kontakt: mthomas[at]sandsmedia.com
Kommentare

Hinterlasse einen Kommentar

Hinterlasse den ersten Kommentar!

avatar
400
  Subscribe  
Benachrichtige mich zu: