Konvergente Systeme stehen ganz oben auf der Agenda für 2016

Fünf Big-Data-Trends für Enterprises

John Schroeder

©Shutterstock/Melpomene

Durch die Digitalisierung und dem wuchernden Internet der Dinge werden auch deutsche Unternehmen mit der Datenflut umgehen müssen. Dabei steckt Big Data glücklicherweise nicht mehr in den Kinderschuhen: Es bestehen bereits einige verlässliche Modelle und Systeme, auf die Unternehmen setzen können – einige bieten sogar die Vorteile vieler Welten, wie kommerzielle Open-Source-Distributionen auf Hadoop-Basis. Die folgenden Trends geben einen Einblick auf aktuelle Entwicklungen und worauf Unternehmen achten sollten, wenn sie dieses Jahr aufrüsten.

1. Konvergente Ansätze als Standard

In der Vergangenheit galt die Trennung von Betriebs- und Analysesystemen als Königsweg bei der Implementierung von Big-Data-Technologien. Dabei wollte man verhindern, dass Analyse-Workloads die Betriebsprozesse stören. Allerdings sah Gartner zu Beginn von 2014 durch HTAP (Hybrid Transactional/Analytical Processing) eine vollkommen neue Datenplattform entsteht, die sowohl den gleichzeitigen Betrieb von Online-Transaktionsverarbeitung (OLTP) und Online-Analytical-Processing (OLAP) beherrscht, als auch ohne Datenduplizierung auskommt.

Ein konvergenter Ansatz wird 2016 zum Standard in Unternehmen werden. Es profitieren bereits viele Unternehmen von der Kombination von produktiven Betriebsprozessen und Datenanalysen. Denn: Unternehmen, welche die Zeitspanne zwischen Datenanalyse und den tatsächlichen Einsatz der daraus resultierenden Ergebnisse verkürzen können, können viel schneller ihre Geschäftsprozesse optimieren. Dabei können sie viel schneller auf Kundenbedürfnisse eingehen, Geschäftsanforderungen erfüllen und sich letztendlich einen Vorteil gegenüber Wettbewerbern verschaffen.

Blockchain Whitepaper 2018

Free: Blockchain Technology Whitepaper

If building a blockchain from scratch is beyond your current scope, the blockchain technology whitepaper is worth a look. Experts from the field share their know-how, tips and tricks, development advice, and strategy for becoming a blockchain master.

2. Von zentralisierten hin zu verteilten Big-Data-Lösungen

Zu Beginn von Big-Data-Analysen richtete man sich an zentralisierte Data Lakes, die Datenduplizierung reduzieren sowie den Betrieb vereinfachen und zahlreiche Anwendungen unterstützen. Inzwischen führt der Weg von zentralisierten hin zu verteilten Workloads.

Für 2016 setzen immer mehr Unternehmen auf eine verteilte Datenverarbeitung, die Herausforderungen in der Geschäftswelt, wie das Management von zahlreichen Endgeräten, verschiedene Rechenzentren sowie sich ständig ändernden Datenschutzregeln, wie Safe Harbor, bewältigen können. Insbesondere das anhaltende Wachstum des Internet of Things (IoT) und der Verfügbarkeit günstiger IoT-Sensoren, schnellerer Netzwerke und Edge-Processing wird die Implementierung von Big-Data-Frameworks für eine verteilte Datenverarbeitung weiter vorantreiben.

3. Storage-Kapazitäten: Flash-Speicher weiter auf dem Vormarsch

Flash-Speicher sind 2016 auf den Vormarsch und setzen sich vermehrt durch. Die neue Generation Software-basierter Speichertechnologie liefert schnelle Lösungen mit hoher Leistungsdichte. Dabei ermöglicht die neue Schlüsseltechnologie eine neue Gestaltung von Produkten sowohl für Consumer- als auch für Enterprise-Märkte. Die hohe Nachfrage der Konsumenten wird die Kosten für Flash-Speicher weiter sinken lassen und dafür sorgen, dass sie vermehrt in Big-Data-Lösungen implementiert werden. Lange waren Flash-Speicher deutlich teurerer als klassische, mechanische Harddrives. In der Vergangenheit hat man sie nur für die Daten verwendet, die schnell verfügbar sein müssen – alle anderen Daten wurden auf klassischen Festplatten gespeichert.

Dank Software-basierter Architekturen sind aber auch weniger Gigabyte Speicher nötig als bei Festplatten, sodass Flash-Speicher insgesamt immer lukrativer werden. Die Kombination aus Flash und Festplatten stellt die optimale Lösung dar, da sie sowohl schnelle als auch speicherintensive Konfigurationen unterstützt. 2016 haben Unternehmen nicht mehr die Qual der Wahl zwischen Geschwindigkeit und Kapazität, sondern können beide Komponenten haben.

4. Etablierte Software vor neuen Lösungen

Die digitale Transformation macht vor keinem Unternehmen und keinem Unternehmensbereich Halt. Aus diesem Grund braucht man verlässliche Lösungen, die helfen, den digitalen Wandel umzusetzen. Durch die Vernetzung vieler Geräte muss darauf geachtet werden, dass die implementierte Lösung keine Geschäftsprozesse stört und auch in der Zukunft einen Mehrwert bietet. Im Laufe der Jahre werden sich viele Big-Data-Trends und -Lösungen herauskristallisieren, aber nur wenige werden sich auch wirtschaftlich bezahlt machen.

2016 wird der Fokus nicht auf neuer verfügbarer Software liegen, sondern auf etablierten Technologien, die einen wesentlichen Mehrwert liefern und wirtschaftlich rentabel sind. Zwar werden neue Innovationen weiterhin Aufmerksamkeit erlangen, Unternehmen werden aber eher auf eine Lösung setzen, die sich bereits mehrere Jahre am Markt behauptet hat. Die Unternehmen müssen sich darauf verlassen können, dass die Lösung und die Anbieter auch nach zehn Jahren noch am Markt sind und sie mit Hilfe und Support rechnen können.

5. Markterfahrung als entscheidendes Qualitätsmerkmal

In Hinblick auf Big-Data-Technologien werden sich Unternehmen und Investoren von Unternehmen abwenden, die regelmäßig ihr Geschäftsmodell ändern. Stattdessen verlassen sie sich auf Unternehmen, die sich mit ihrem Geschäftsmodell in der Vergangenheit bewährt haben und ihren Kunden dabei helfen, Betriebsergebnisse zu verbessern und Prozesse effizienter zu gestalten. Hier entscheiden sich Unternehmen für Anbieter, die sich bereits am Markt behauptet haben und keine Eintagsfliegen sind, die nach einigen Jahren wieder vom Markt verschwunden sind.

Diverse Big-Data-Trends sind in den letzten Jahren aufgetaucht, aber nur wenige haben sich langfristig bewährt. 2016 wird das Jahr sein, in dem Unternehmen wieder auf altbewährte Technologien setzen.

Fazit

Unternehmen sollten ihre Big-Data-Systeme hinterfragen und aktualisieren. Anlässe gibt es zuhauf: Die Digitalisierung verlangt schnellere und effizientere Prozesse, das Internet der Dinge sorgt für eine anwachsende Datenflut und neue integrierte Geschäftsmodelle befördern das Ende des Silodenkens. Es lohnt sich daher, auf konvergente Big-Data-Systeme zu setzen, die verteilte Workloads zulassen, mit offenen Schnittstellen arbeiten und die skalierbar sind. In den letzten Jahren haben sich bereits Anbieter auf dem Markt etabliert, die diese Lösungen liefern können. Der sinkende Preis von Flash-Speichern ermöglicht zusätzlich leistungsstärkere Komponenten. Hier bietet sich die Möglichkeit, auf bewährte Systeme mit neuer Hardware zu setzen  und so 2016 durchzustarten.

Aufmacherbild: Young man pointing at Big Data concept over a tablet computer von Shutterstock / Urheberrecht: Melpomene

Verwandte Themen:

Geschrieben von
John Schroeder

John Schroeder ist Chief Executive Officer (CEO) und Vorstandsvorsitzender von MapR seit der Gründung des Unternehmens im Jahr 2009. Zuvor hatte er diverse Führungspositionen bei Anbietern von Enterprise-Software für die Bereiche Datenverarbeitung und -speicherung sowie Business Intelligence inne. Zu seinen Stationen zählen u. a. Calista Technologies (jetzt Microsoft) und Rainfinity (jetzt EMC), wo er jeweils die Funktion des CEO ausübte, sowie Brio Technologies und Compuware, bei denen er als Senior Vice President of Products and Marketing bzw. General Manager tätig war.

Kommentare

Hinterlasse einen Kommentar

Hinterlasse den ersten Kommentar!

avatar
400
  Subscribe  
Benachrichtige mich zu: