Marktvorteile durch datenfokussierten Entscheidungen

Die Macht von Big Data

Arne Jacobsen

Das Tempo bei der digitalen Kommunikation von Menschen untereinander, von Menschen und Maschinen, und von Maschinen zu Maschinen nimmt stetig zu. Bei jeder Kommunikation generieren die Computer Daten, die sich Tag für Tag zu einem riesigen Gebirge auftürmen. Die IT-Experten sprechen von Big Data – Exabytes oder sogar Zettabytes an Daten, die in den Datenbanken liegen und alt werden.

Big Data folgen den Gesetzen der Marktwirtschaft – je mehr Daten zur Verfügung stehen, desto billiger werden sie. Gleichzeitig aber steigen die Kosten für Methodik, Werkzeuge und Technologie, mit deren Hilfe die Verantwortlichen die wertvollen Informationen aus ihren Datengebirgen schürfen.

Die wichtigsten und teuersten Informationen liegen dabei in unstrukturierten Daten. Dokumente, Videos, Forschungsergebnisse und Bilder können aber nicht einfach mit Datenbanktools ausgewertet werden. Hier müssen die Techniker Brücken bauen, mit Metadaten arbeiten.

Industrieexperten unterstreichen, dass für mehr als nur gutes Handling und Management eine durchgängige Automatisierung nötig ist. Um sich den Wert – und damit auch die Macht – innerhalb Big Data zunutze zu machen, müssen Organisationen Analysen durchführen und Aktivitätsmuster finden. Wie und wann haben die Mitarbeiter, die Kunden, die Partner diese massiven Datenmengen benutzt? Wer hat sie verwendet und in welcher Reihenfolge? Was ist der Inhalt dieser Daten und in welchem Kontext stehen sie? Welche Daten sind unnötig oder behindern den Erfolg des Unternehmens?

Das Ziel dieser Auswertung ist der Umbau des gesamten Unternehmens zu einer datengetriebenen Organisation, deren Wissen in den Datenbanken liegt. Diese Intelligenz steuert und treibt Geschäfte sowie Prozesse.

Den Wert der Datenflut erkennen

Das Ziel einer datengetriebenen Organisation ist keinesfalls neu. Die Analyse großer Datenbestände hat bereits ganze Industriezweige auf den Kopf gestellt. Die Geschäftsmodelle der sogenannten Social Networks basieren auf dem Konzept, billig gigantische Mengen von Daten einzusammeln und das hier gesammelte Wissen – nach entsprechenden Analysen und Auswertungen – an Kunden aus der Industrie zu verkaufen.
Ein weiteres Beispiel ist das High Frequency Trading (HFT). Mit HFT wickeln Banken ihre Handelstransaktionen innerhalb von Mikrosekunden ab. Und das ausschließlich auf der Grundlage riesiger Informationsmengen, die innerhalb von Sekunden nach ihrem Eintreffen bereits verarbeitet und ausgewertet sind.

Inzwischen laufen rund 70 Prozent aller Handelsaktivitäten als HFT ab, wobei die Experten über dessen Rolle zerstritten sind. So gibt es heftige Diskussionen, ob der Einsatz von HFT ein unlauterer Vorteil sein könnte. Andererseits berichten die Securities and Exchange Commission (SEC) – sowie die Commodity Futures Trading Commission (CFTC) – übereinstimmend, dass HFT während des Flash Crash am 6. Mai 2010 zur Volatilität der Märkte beigetragen habe.

Einige Kritiker weisen wiederum auf einen anderen Zusammenhang hin – wenn die Analyse großer Datenmengen zu falschen Ergebnissen führt, könne dies eine Welle von schnell getroffenen, aber leider falschen Entscheidungen auslösen. Aus Sicht dieser Experten war der Flash Crash die Konsequenz des High Frequency Trading.

Trotzdem begeistern sich IT-Experten der unterschiedlichsten Branchen für die Chancen und Möglichkeiten rund um Big Data – egal ob Astrophysik oder Gesundheitswesen, Finanzen oder Öffentliche Verwaltung, bis hin zum Einzelhandel. Unter den Führungskräften ist indes eine gewisse Dringlichkeit zu verspüren, die Wettbewerbsfähigkeit ihrer Organisationen mit Hilfe von Big Data sicherzustellen. Im Executive Advisory: CEO and Senior Executive Survey, 2011; Detail Report wurde die sogenannte „datenbasierte Entscheidungsfindung“ als die Technologie bewertet, die den Unternehmen den größten strategischen Wert liefert.

Analyse von großen Datenbeständen und strukturierten Daten

Die Analyse Pattern-Based Strategy: Getting Value From Big Data, wurde von Yvonne Genovese und Stephen Prentice verfasst und von dem Marktforschungsunternehmen Gartner herausgegeben. Hier führen die Autoren aus, dass „Geschäftsleute und Technologen feststellen, dass ein noch größerer potentieller Wert darin liegt, andere Arten von Daten auszuwerten, als solche, die es im Unternehmen momentan gibt und einige neue Arten von Daten. Viele Organisationen haben Daten über Jahre aufbewahrt und niemals versucht, sie zu analysieren oder nach Mustern zu suchen. Einfach weil das Verlangen in der Geschäftswelt danach nicht vorhanden war.“

Beispiele für solche Daten sind Tabellen, Präsentationen, Bilder, Audiodateien, Videodateien, Entwürfe und Zeichnungen. Solche Daten liegen meist in unstrukturierten Datensammlungen wie Archiven, E-Mail-Speichern oder File Systemen vor.

In unstrukturierten Datenlagern finden Techniker häufig nicht allzu viele Metadaten zum Analysieren, denn gewöhnlich werden hier keine Aktivitäten aufgezeichnet. Es gibt keine eindeutige Verbindung zu den Urhebern und Eigentümern der Daten und auch kein Verzeichnis darüber, welche Inhalte in den Daten zu finden sind.

Ironischerweise sind hier die größten Datenbestände mit den wichtigsten Informationen betroffen: Verschiedene Untersuchungen zeigen, dass über 80 Prozent der für die Organisation entscheidenden Daten in unstrukturierten Datensammlungen liegen.

Metadatenintelligenz – unstrukturierte Daten analysieren und managen

In der Studie Mastering the Information Explosion vergleicht Varonis die digitale Revolution mit der Revolution der Transportinfrastruktur. Der Kerngedanke: So wie die Gesellschaft für das Managen von immer mehr Autos immer mehr Ampeln benötigte, braucht sie bei mehr Datenbeständen und -verflechtungen immer mehr automatisierte Kontrollen. Damit kann sie sicherstellen, dass Daten zugänglich sind und korrekt verwendet werden.

Die Aufgaben für die automatisierten Kontrollen sind vielfältig – hier eine unvollständige Liste:

  • Dateneigentümer identifizieren
  • Aktivitäten aufzeichnen
  • Berechtigungen überprüfen
  • Rechte verwalten
  • Datenzugang kontrollieren
  • Missbrauch erkennen
  • veraltete Daten identifizieren und löschen

Die Parallele zur Verkehrsinfrastruktur geht noch weiter: Bewegungen von Kraftfahrzeugen und Flugzeugen werden maßstabsgetreu aufgezeichnet und analysiert, wodurch Besitzer ihre Autos mit Echtzeit-GPS steuern, Gesetzeshüter Raser durch einen Blick auf automatisierte Mautaufzeichnungen schnappen können und die Flugverkehrsleitung den Luftraum besser nutzen kann. Die Fahrzeuge selbst sind besser ausgeklügelt: Sie liefern mehr Informationen über den Zustand eines jeden ihrer Teile und über ihren Gesamtzustand, so dass Sicherheit und Effizienz zunehmen.

Genauso wie eine Metadatentechnologie für Organisationen nötig ist, um Daten in unstrukturierten und halb strukturierten Datensammlungen zu verwalten, werden Organisationen auch sehen, dass die Analyse von Metadaten unbedingt notwendig ist.

Denn nur so werden die Verantwortlichen den maximalen Nutzen aus den Daten ziehen. Auf diese Weise können sie ihren Wert einschätzen, Datensätze identifizieren und die Verbindung zwischen Nutzern, Projekten und Eigentümern herstellen. Varonis nennt das Metadatenintelligenz.

Das Management verwendet die Metadatenintelligenz, um Geschäftsvorgänge in viele Richtungen zu verbessern. Sie überdenken Arbeitsabläufe, lassen verschiedene Teams zusammen arbeiten und entdecken neue Aktivitätsmuster.

Die gute Nachricht ist, dass sich die Organisationen diese Intelligenz ganz einfach zunutze machen können, ohne dazu Datenspeicherplattformen oder Arbeitsabläufe umstellen zu müssen. Sie erschließen lediglich ihre bestehenden Datenspeicher und nutzen so die Metadatentechnologie.

Arne Jacobsen ist als Director DACH bei Varonis Systems tätig.

Geschrieben von
Arne Jacobsen
Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.