Daten weisen den Weg in die Zukunft

Big Data in vier Schritten

Ferri Abolhassan
©Shutterstock/ Rafal Olechowski

Vorsprung durch Wissen. So lautet das Versprechen von Big Data und sorgt damit für Wirbel in der ICT-Branche. Soziale Medien und die Mobilisierung des Unternehmensalltags treiben das Datenvolumen in die Höhe. Gleichzeitig steigen auch Datenvielfalt und Verarbeitungsgeschwindigkeit. Doch wie gelingt es Unternehmen, die Datenmengen in den Griff zu bekommen und somit das eigene Business anzukurbeln? Erst mit der richtigen Strategie wird Big Data zum Erfolg

Big Data beherrscht derzeit die IT-Welt wie kein anderes Thema: Entscheider wie IT-Verantwortliche stehen vor der Herausforderung, die stetig steigenden Datenmengen zu bewältigen. Informationen aus verschiedenen Quellen, etwa aus sozialen Medien, gewinnen rasant an Bedeutung, bringen aber neue Herausforderungen mit sich: Allein Twitter generiert 12 Terabyte Daten pro Tag. Auch Anwendungen wie Facebook tragen dazu bei, dass sich das weltweite Datenvolumen alle zwei Jahre verdoppelt. Hinzu kommt, dass Informationen aus sozialen Netzwerken, mobilen Anwendungen und intelligenten Systemen im Gegensatz zu Daten aus Businessanwendungen unstrukturiert vorliegen. Diese in Echtzeit zu filtern wird jedoch für viele Unternehmen zur Mammutaufgabe. Denn die neuen Anforderungen an Volumen, Geschwindigkeit und Vielfalt überschreiten die Fähigkeiten herkömmlicher Datenbanken und zwingen die IT-Infrastrukturen vieler Unternehmen in die Knie.

Welche Möglichkeiten bietet Big Data?

In der heutigen Informationsgesellschaft gehört das Wissen um zukünftige Markttrends, Kundenerwartungen und die eigenen Prozesse zu den zentralen wirtschaftlichen Ressourcen eines Unternehmens. Daten entwickeln sich zu einem wichtigen Kriterium für eine erfolgreiche und nachhaltige Positionierung im Markt und die Abgrenzung vom Wettbewerb. Ein solcher Mehrwert entsteht jedoch erst, wenn Unternehmen die gesammelten Produkt-, Prozess- und Kundeninformationen analysieren. Werten sie die Daten richtig aus, ist es möglich, komplexe Zusammenhänge zu erfassen und eine fundierte Basis für die Entscheidungsfindung zu schaffen. So erhöhen Business Analytics die Reaktionsgeschwindigkeit, mit der Unternehmen interne Prozesse optimieren sowie Markt- und Kundenanforderungen begegnen können.

Anwendungsszenarien aus dem Business

Durch den Einsatz von Big-Data-Lösungen erhalten Unternehmen konkrete Handlungsempfehlungen für strategische Entscheidungen in sämtlichen Bereichen der Wertschöpfungskette wie Produktentwicklung, Marketing oder Logistik. Kundeninformationen aus Social Media geben systematisch verknüpft wertvolle Hinweise auf die Kundenzufriedenheit. Das Unternehmen sieht sofort, wo und wie über seine Produkte gesprochen wird, erkennt frühzeitig negative Reaktionen und kann gegensteuern, bevor ein Imageverlust eintritt. Dadurch wird die Wirkung einzelner Maßnahmen messbar. Zudem ist eine Beobachtung des Wettbewerbs durch Informationen aus sozialen Netzwerken einfacher denn je. Wie kommen Produktneuheiten der Mitbewerber bei den Kunden an? All diese Erkenntnisse gewinnen Unternehmen durch Business Analytics. Auch Zusammenhänge zwischen der Kommunikation in sozialen Netzwerken und dem Absatz in bestimmten Regionen werden aufgedeckt. Beschaffung sowie der Einsatz von Logistik sind durch Big-Data-Technologien somit besser planbar und kostengünstiger.

Ein weiteres Beispiel zeigt, wie auch der Endkunde von Big-Data-Lösungen profitiert: In der Automobilindustrie erlaubt die Analyse von Diagnosedaten eine Früherkennung von Produktmängeln und vorausschauende Serviceleistungen. Der Hersteller kann seine Fahrzeugproduktion optimieren und Rückrufaktionen vermeiden. Der Kunde wiederum wird frühzeitig über einen notwendigen Werkstatttermin informiert und bleibt nicht unvorhergesehen mit einer Panne stehen.

Die Anwendungsszenarien zeigen, dass sich Services, Produkte und Dienstleistungen mit Big-Data-Lösungen besser an die individuellen Bedürfnisse des Endkunden anpassen lassen und die Kundenbeziehung schneller und direkter verläuft. Damit aus dem gezielten Umgang mit relevanten Informationen ein entscheidender Wettbewerbsvorteil wachsen kann, müssen die nötigen Speicherungs- und Verarbeitungssysteme jedoch zunächst für den Umgang mit Big Data fit gemacht werden.

Aufmacherbild: Big Data – abstract color text on white von Shutterstock / Urheberrecht: Rafal Olechowski

[ header = Seite 2: Der Weg in die Cloud ]

Schritt 1: Der Weg in die Cloud

Da Big Data die Kapazitäten vorhandener IT-Ressourcen häufig übersteigt, sind nur die Wenigsten in der Lage, professionelle Businessanalysen von der eigenen IT-Abteilung durchführen zu lassen. Was fehlt, sind vor allem entsprechende Architekturkonzepte und Technologien, meist wegen der hohen Investitionskosten. Die Folge: Wertvolle Informationen gehen verloren. Eine Auslagerung der Daten in die Cloud löst dieses Problem. Unter dem Stichwort „Business Analytics aus der Cloud“ bietet die Wolke zum einen die notwendigen Speicherkapazitäten für Datenmengen im Terabyte- und Petabyte-Bereich, zum anderen die richtigen Predictive-Analytics-Tools, die strukturierte und unstrukturierte Daten in Unternehmen erkennen und bisher nicht bekannte Zusammenhänge in Rekordzeit darstellen. Damit kann ein Unternehmen präzise und unternehmensstrategische Prognosen ableiten. Die benötigten Informationen und Infrastrukturen werden dabei nach Bedarf bereitgestellt. Zu Beginn jeder Big-Data-Strategie steht deshalb die intelligente Bündelung von strukturierten und unstrukturierten Daten in der Cloud. Die Zusammenarbeit mit einem kompetenten und zuverlässigen Partner hilft Unternehmen, das Zusammenspiel von Hardware, Software, Netzen und Endgeräten sowie deren Schnittstellen zu beherrschen. Nur so sind technologische Systembrüche beim Aufbau der Big-Data-Architektur vermeidbar. Neben dem Wissen um die entsprechenden Technologien und Infrastrukturen, ist vor allem Erfahrung aus bereits realisierten Projekten gefragt.

Schritt 2: Analyse und Strategie

Planung und Analyse ermöglichen eine sichere Digitalisierung und Migration großer Datenmengen in die Cloud. Der Aufbau einer Big-Data-Lösung für ein Unternehmen erfordert ebenso den kritischen Blick auf die vorhandene Systemarchitektur. Der Grund: Welche Technologien und Dienstleistungen am besten geeignet sind, hängt stark von den spezifischen Anforderungen und Zielen des Unternehmens und der einzelnen Abteilungen ab. Deshalb steht am Anfang sinnvollerweise ein Assessment. Im Rahmen der Beurteilung erfassen Experten den Reifegrad aller operationalen und analytischen Systeme und identifizieren Potenziale für eine optimierte ERP- und BI-Infrastruktur. Zusätzlich nehmen sie die Prozesse und Informationen unter die Lupe: Welche Daten sollen wozu genutzt werden? Liegen die Informationen strukturiert oder unstrukturiert vor? Dadurch lassen sich jene Unternehmensbereiche ermitteln, für die der Einsatz von Big-Data-Technologien besonders erfolgversprechend ist. Auch die Frage, welche Lösung oder Kombination verschiedener Lösungen die passende ist, sollte das Assessment beantworten. Am Ende der Analyse steht die Auswahl eines geeigneten Architekturkonzepts und der Umsetzungsstrategie.

[ header = Seite 3: Die richtige Technologie ]

Schritt 3: Die richtige Technologie – In-Memory versus Hadoop

In-Memory Computing als Allroundtalent: Es sind bereits verschiedene Big-Data-Konzepte zur skalierbaren Informationsverarbeitung verfügbar. Ein Lösungsansatz ist In-Memory Computing. In-Memory-Verfahren erfüllen die Anforderungen an die Verarbeitung stetig steigender Datenvolumen in immer kürzerer Zeit. Dabei liegen die für die Analyse benötigten Informationen direkt im Arbeitsspeicher des Rechners vor. Dieser Ansatz bietet entscheidende Vorteile: Erstens sind die zur Verfügung stehenden Daten immer auf dem aktuellen Stand. Zweitens erhöhen sich die erfassbare Datenmenge sowie die Zugriffsgeschwindigkeit um ein Vielfaches. SAP HANA bewältigt Datenbestände beispielsweise bis zu 3 600 Mal schneller als herkömmliche Datenbanken. Hiermit sind komplexe Analysen strukturierter Massendaten nahezu in Echtzeit realisierbar. Die Verarbeitungszeit verkürzt sich von mehreren Stunden oder gar Tagen auf lediglich wenige Minuten bis Sekunden. Diesen Vorteil sehen auch die Unternehmen: Im Rahmen der PAC-Studie „In-Memory-Datenanalysen in Zeiten von Big Data“ aus dem Jahr 2012 beschreiben 67 Prozent der Befragten eben diese Beschleunigung bestehender Datenanalysen als einen großen bis sehr großen Mehrwert. Die Geschwindigkeit gilt damit als größte Stärke der In-Memory-Analyse. An zweiter und dritter Stelle stehen die Möglichkeiten, dem Analysebedarf der Fachbereiche besser begegnen und von einer erhöhten Reaktionsgeschwindigkeit profitieren zu können.

Abb. 1: Mehrwerte der In-Memory-Datenanalyse. Quelle: PAC 2012, Studie „In Memory-Datenanalysen in Zeiten von Big Data“

In-Memory Computing ist für diverse Anwendungsgebiete in den verschiedenen Branchen geeignet. Mit umfangreichen Analysen des Markts lassen sich im Handel Preise für einzelne Waren an die standortspezifische Wettbewerbslage der Geschäftsstellen anpassen. Die Preisfindung als Kernprozess dieser Branche wird dadurch deutlich optimiert und verbessert die Konkurrenzfähigkeit. Denkbar ist, mit dem Einsatz von In-Memory-Technologien Preise sogar mehrmals am Tag anzupassen.

Ein weiteres Beispiel ist die Finanzbranche. Echtzeitanwendungen bilden hier die Grundlage optimierter Geschäftsprozesse. Die Daten, mit denen etwa Unternehmen im Investment Banking oder an der Strombörse arbeiten, ändern sich ständig. Deshalb brauchen sie eine Lösung, die Abweichungen schnellstmöglich verifiziert. Eine beschleunigte Risikoabschätzung erlaubt es, relevante Marktveränderungen und deren Auswirkungen auf das eigene Unternehmen zeitnah zu erfassen. In-Memory Computing verkürzt die Auswertungszeit auf ein Minimum und bietet so einen klaren Mehrwert. Denn: politische, gesellschaftliche oder wirtschaftliche Ereignisse beeinflussen das Risiko teilweise innerhalb weniger Minuten.

Hadoop für den Blick in die Zukunft: Eine weitere Option im Bereich der Business Analytics aus der Cloud ist die Nutzung einer Hadoop-basierten Lösung. Diese erlaubt die kosteneffiziente und redundante Speicherung großer Datenvolumen und kann autonom oder komplementär zu anderen Konzepten wie dem In-Memory Computing eingesetzt werden. Das Softwareframework basiert auf zwei Grundfunktionen: der Aufgabenteilung und der parallelen Datenverarbeitung. Hadoop schlüsselt die Informationen zunächst in verschiedene kleinere Datenblöcke auf und verteilt sie auf mehrere als Cluster verbundene Computer. Diese verarbeiten die einzelnen Dateiblöcke gleichzeitig bis zur erneuten Zusammenführung der Informationen. Die flexible Struktur erlaubt es, das Servercluster bei Bedarf um beliebig viele Rechner zu erweitern: Die potenzielle Speicherkapazität geht gegen unendlich. Die Analyse von Datenmengen über 20 Petabyte ist somit kein Problem. Dabei vervielfacht Hadoop die Daten, indem es mehrere Versionen derselben Datei auf unterschiedlichen Rechnern speichert. Dieses Verfahren beugt Datenverlusten vor, etwa bei einem Systemausfall. Zudem kann man heterogene Datensätze aus unterschiedlichen Quellen in einer gemeinsamen Datenbasis sichern. Das Hadoop-Cluster eignet sich also auch für die Verarbeitung unstrukturierter Informationen aus intelligenten Systemen, sozialen Medien oder mobilen Anwendungen.

Für Unternehmen sind genau diese Daten immer wichtiger. Besonders Social-Media-Informationen lassen Rückschlüsse auf Kundenwünsche und -bedürfnisse zu: Welche Produkte sind beim Kunden besonders beliebt, welche weniger? Wo sind neue Ideen und Ansätze aus der Produktentwicklung gefragt? Die Kombination von Hadoop mit einer speziellen Analysesoftware erlaubt die Identifizierung von Mustern bei der Auswertung der Informationen. Die daraus abgeleiteten Prognosen machen positive wie negative Entwicklungen und Trends sichtbar. Neben der rückblickenden Betrachtung können Unternehmen also prädiktive Analysefunktionen nutzen. Sie erkennen dadurch frühzeitig ungenutzte Potenziale, eine veränderte Nachfrage oder bevorstehende Engpässe. Im Energiebereich erlauben vorausschauende Analysen etwa eine Verknüpfung von ausgewerteten Kundendaten mit ortsbezogenen Wetterprognosen. Dadurch ergibt sich eine solide Informationsbasis, die Energiedienstleister für eine präzise Kalkulation der Stromlieferung und des Verbrauchs nutzen. Beispielsweise werden Engpässe für Wind- und Solarstrom voraussehbar und lassen sich durch zusätzliche Kapazitäten ausgleichen.

Schritt 4: IT-Sicherheit und Compliance nicht vergessen

Unabhängig davon, für welche Technologie sich ein Unternehmen letztlich entscheidet: Die benötigten Informationen müssen jederzeit verfügbar und der Datenschutz gewährleistet sein. Denn für den effizienten Einsatz von Business-Analytics-Systemen sind Verfügbarkeit und IT-Sicherheit unabdingbare Voraussetzungen. Die Umsetzung der Big-Data-Strategie und die Entwicklung eines umfassenden Sicherheitskonzepts sollten deshalb Hand in Hand gehen. So schützt eine durch Twin-Core-Rechenzentren professionell gesicherte IT-Umgebung, wie sie etwa T-Systems bereitstellt, durch redundant ausgelegte Systeme und Infrastrukturen vor Ausfällen und Datenverlusten. Zu den wirksamen Mechanismen im Twin-Core zählen unter anderem auch Intrusion-Detection- und Intrusion-Prevention-Lösungen für die Sicherheit der Daten. Solche Systeme entdecken Angriffe und wehren sie ab beziehungsweise spüren potenzielle Sicherheitslücken frühzeitig auf und schließen sie.

Außerdem müssen geltende Compliance- und Governance-Richtlinien in die Planung einfließen. Besonders unstrukturierte Informationen, etwa aus sozialen Netzwerken, enthalten sensible Personendaten, die strengen Datenschutzgesetzen unterliegen. Umso wichtiger ist es, auf Private Cloud Services mit zertifiziertem Sicherheitsmanagement zu setzen, die sich am Geltungsbereich europäischer Datenschutzgesetze orientieren und damit die notwendigen Anforderungen an IT-Sicherheit und Datenschutz abdecken. IT-Dienstleister und Unternehmen müssen Datenschutzregelungen jedoch nicht nur beim Bereitstellen der Infrastruktur beachten. Die Integration entsprechender Verfahren zur Sicherung der Privatsphäre ist auch bei der Big-Data-Lösung selbst ein notwendiger Schritt. Dazu gehören Analyseverfahren, die etwaigen Datenschutzprüfungen standhalten. Die Auswertung der Daten muss hochgradig anonymisiert erfolgen, sodass eine nachträgliche Identifizierung einzelner Personen ausgeschlossen ist. Sind diese Voraussetzungen gewährleistet, befinden sich Unternehmen auch bei der Analyse von Massendaten auf der sicheren Seite.

Woran erkenne ich einen kompetenten IT-Dienstleister?

– Umfassende Erfahrung als Systemintegrator.
– Flexible Bereitstellung leistungsfähiger High-Performance-Technologien.
– Angebotene Cloud-Services enthalten ein zertifiziertes Sicherheitsmanagement und orientieren sich am Geltungsbereich europäischer Datenschutzgesetze.
– Alle Leistungen stammen aus einer Hand (Planung, Lösungsdesign, Integration, Betrieb).
– Zusammenarbeit mit professionellen Partnern.

[ header = Seite 4: Fazit ]

Fazit

Nur durch eine planvolle Integration von Business Analytics in die bestehende Unternehmensumgebung wird der Umgang Big Data zum Erfolgsversprechen. Neben einer Big-Data-Strategie und Planung im Vorfeld, ist ein Heben des möglichen Potenzials in Verbindung mit Business Analytics aus der Cloud für viele Unternehmen nur mit dem richtigen Partner möglich. Neben einer sicheren IT-Infrastruktur sowie High-Performance-Technologien ist dessen Erfahrung mit Big-Data-Lösungen ein Schlüsselfaktor. Bei der Auswahl ist wichtig, dass der IT-Dienstleister die Einführung des Big-Data-Systems von der Analyse der vorliegenden Strukturen und Daten bis zur Implementierung der Lösung und darüber hinaus begleitet. Gemeinsam mit dem Anwender definiert er, ob das Unternehmen auf eine Analyse in Echtzeit, zukunftsorientierte Prognosen oder eine Kombination verschiedener Ansätze angewiesen ist. Der Provider unterstützt beim Entwurf eines leistungsfähigen Architekturkonzepts, das den Anforderungen und Zielen des Unternehmens und der einzelnen Abteilungen entspricht. Erst wenn diese Grundvoraussetzung erfüllt ist, können Unternehmen Business Analytics zu einem klaren Vorsprung ausbauen.

Geschrieben von
Ferri Abolhassan
Ferri Abolhassan
Dr. Ferri Abolhassan begann seine Karriere 1987 bereits während seines Informatikstudiums bei Siemens in München. Nach einer Station in den USA bei IBM folgte 1992 die Promotion an der Universität des Saarlandes in Saarbrücken. Nach diversen Führungspositionen bei SAP und IDS Scheer – unter anderem in den Bereichen Sales und Marketing – wechselte Ferri Abolhassan im September 2008 als Mitglied der Geschäftsführung und Leiter des Bereichs Systems Integration zur T-Systems International GmbH. Ende 2010 übernahm Abolhassan die Leitung des Bereichs Production, aus dem im Jahre 2013 die Einheit Delivery hervorging. Seit Januar 2015 leitet Dr. Ferri Abolhassan die neu gegründete Einheit IT Division mit rund 6.000 Kunden in mehr als 25 Ländern.
Kommentare

Hinterlasse einen Kommentar

Hinterlasse den ersten Kommentar!

avatar
400
  Subscribe  
Benachrichtige mich zu: