DevOps im Bundestag?!

Respekt für Silos: Die Optimierung von Datensilos im öffentlichen Sektor

Jörg Hesske

© Shutterstock / irina d’elena

Datensilos haben einen schlechten Ruf, vor allem in der Bundesregierung. Seitdem es sie gibt, sprechen Technologieexperten davon, sie einzureißen oder zu zerschlagen, basierend auf der Argumentation, dass der Abbau von Mauern zwischen den Daten, deren Zusammenführung an einem zentralen Ort und eine behördenübergreifende Analyse zu den wirkungsvollsten Erkenntnissen führt. Wie man dies bewerkstelligen könnte erklärt Jörg Hesske von Elastic in diesem Artikel.

Auch die CDU-/CSU-Bundestagsfraktion fordert im Hinblick auf die zukünftige Datenstrategie der Bundesregierung eine Überwindung unternehmerischer Datensilos, um Innovation weiter voranzutreiben. Damit soll eine unternehmensübergreifende Datennutzung freiwillig, aber auch reguliert und rechtssicher möglich sein.  Auch wenn eine Überwindung der Datensilos durchaus noch Sinn ergibt, ist die Technologie mittlerweile so weit fortgeschritten, dass nicht immer der schwierigste Weg dorthin genommen werden muss. Eine verantwortungsvolle sowie wirksame Nutzung der Daten ist auch mit Datensilos möglich. Schlüssel dabei ist weniger das Einreißen von Datensilos, sondern vielmehr eine optimierte Nutzung und ein regulierter Zugriff auf die vorhandenen Datensätze. Dafür plädiert auch die Initiative D21 – Deutschlands größtes Netzwerk für die digitale Gesellschaft –, die eine Demokratisierung der Datensilos und die strategische Datennutzung durch den Staat befürwortet. Laut D21 ist die Betrachtung von Daten als reine Ressource nicht weitgreifend genug. Vielmehr müsse der Fokus auf die Wirkung der Daten und den potenziellen Nutzen für jeden einzelnen Bürger stärker in den Fokus rücken.

Trotz des jahrzehntelangen „Silo Shamings“ existieren Datensilos in der Regel aus guten Gründen, die von der Sicherheit über die Privatsphäre bis hin zum Zugang und zur Einhaltung von Vorschriften reichen. Der Ansatz, alle Daten einer Behörde in einer Cloud oder einem On-Premise Data Lake zu sammeln, erschwert tatsächlich eher die Bemühungen, schnelle und relevante Erkenntnisse zu erlangen. Diese Umgebungen erfordern oft umfangreichere Ressourcen (vor allem Arbeit und Zeit), um strukturierte und unstrukturierte Daten zu verarbeiten und für die Analyse aufzubereiten. Der Data Lake scheint eher ein Datensumpf zu sein.

Silos respektieren

Auch wenn die Konsolidierung redundanter Rechenzentren oder Datensätze Kosten einspart, bedeutet dies nicht, dass eine Datenzentralisierung immer der richtige Weg ist. Die heutigen Analysestrategien und -technologien sollten aus zwei Gründen föderale Datensilos anerkennen:

  1. Sicherheit: Die Zentralisierung von Daten erleichtert Cyber-Angriffe. Häufig haben einzelne Abteilungen ihre eigenen Sicherheitsprotokolle, was die Konsolidierung von Datensätzen erschwert. Der Versuch, sie anhand einer einzigen Sicherheitsrichtlinie zu regulieren, reduziert die Kontrollen auf den kleinsten gemeinsamen Nenner zwischen den Aufgaben. Daten werden so entweder offengelegt oder eingeschränkt.
  2. Eigentum: Die Integration von Daten führt zu neuen Herausforderungen hinsichtlich Governance und Ownership, insbesondere für Abteilungen und Unterabteilungen, die ihre eigenen Datensätze kontrollieren und verwalten. Darüber hinaus ist es vielen Behörden gesetzlich verboten, ihre sensibelsten Daten zusammenzuführen.

Kurz gesagt: Die komplette Integration von Daten oder der Abriss von Silos ist unrealistisch. Sie kann ganz im Gegenteil schwerwiegende Auswirkungen auf die Sicherheit haben. Darüber hinaus lassen sich eine Reihe von Aufgaben nur mit einem erhöhten Aufwand erledigen.

Den Zugang zu Daten erleichtern

Damit Daten für eine Behörde wirklich nützlich sind und sie bei der Entscheidungsfindung unterstützen, müssen sie für eine Vielzahl von Interessengruppen – vom politischen Entscheidungsträger, über den Data Analyst, bis hin zum normalen Bundesbediensteten – leicht zugänglich sein. Technologie ermöglicht die Konsolidierung von behördenweiten Daten für eine schnelle, detaillierte Analyse. Gleichzeitig erhält sie die Integrität von Silos aufrecht. Statt Silos einfach zu zerstören, sollten sich Behörden auf die Auffindbarkeit über entsprechende Analyseplattformen konzentrieren. Diese ermöglichen eine sekundenschnelle Abfrage vieler verschiedener Datentypen in verteilten Umgebungen und respektieren die vorhandenen Datensilos.

Neue Technologien indexieren Daten unabhängig vom Format in Suchmaschinen –  so lassen sie sich schneller finden und nahtloser analysieren. Die Master-Kopie der Daten verbleibt im Originalsystem und vermeidet so die Störung mehrerer Teams. Unabhängig davon, wo sich die Daten befinden – auf Servern, in Containern oder als Funktionen bereitgestellt: Nutzer können immer noch schnelle Abfragen über Log-Dateien oder Server-Metriken ausführen.

Statt Silos abzureißen, können Behörden die Demokratisierung der Daten vorantreiben, indem sie relevanten Nutzern deren Analyse ermöglichen. Indexbasierte Suchmaschinen sind für alle Beteiligten einfacher zu bedienen und unterstützen eine Vielzahl von Datenprojekten. Sie bieten außerdem ganzheitliche Einblicke über mehrere Datenspeicher hinweg. Suchindizes verarbeiten sowohl strukturierte als auch unstrukturierte Daten für die Analyse, indem sie die Daten in Strukturen organisieren, die für schnelle Antworten auf Ad-hoc-Fragen optimiert sind – ohne dass Entwickler eingreifen müssen.

Moderne Suchlösungen, die auf Suchindizes basieren, befähigen Nutzer, die wichtigsten Inhalte auf der Grundlage der bekannten Suchanfragen auffindbar zu machen, ohne dass sie Änderungsanfragen einreichen oder neue Aufträge zum Aufbrechen von Silos erteilen müssen.

So ist es allen Beteiligten – vom Datenanalytiker bis zum Entscheidungsträger – möglich, große Datenmengen siloübergreifend und nahezu in Echtzeit zu speichern, zu durchsuchen und zu analysieren. Die heutigen Analysetools sind unabhängig von der Größe der Behörde und der Anzahl der Silos imstande, von der kleinsten IT-Abteilung mit ein paar Dutzend Firewalls bis hin zu großen Behörden mit über 10.000 Servern zu skalieren – und gleichzeitig alle Sicherheitsprotokolle jedes einzelnen Datensilos einzuhalten.

Störungen vermeiden

Wenn Datensilos sinnvoll sind, sollten  vorhandene Technologien  erweitert werden, um die Leistung der Daten freizusetzen, Unterbrechungen aber zu vermeiden. Da Behörden immer mehr Daten in die Cloud verlagern, sind herstellerneutrale Analysetools und die Zusammenarbeit mit einer Vielzahl von Cloud- und SaaS-Plattformen unabhängig vom Anbieter notwendig.

Föderale Datensilos verschwinden in absehbarer Zeit nicht. Das ist nicht verwerflich, vor allem, wenn bestimmte Silos ein wesentlicher Bestandteil der Behördenaufgaben sind. Wenn sich Behörden aber weniger auf das Einreißen von Mauern und mehr auf die Zugänglichkeit von Daten konzentrieren, lassen sich aus den in verschiedenen Silos gelagerten Daten bessere Erkenntnisse gewinnen.

Geschrieben von
Jörg Hesske

Jörg Hesske ist Area Vice President Central & Eastern Europe bei Elastic.

Kommentare

Hinterlasse einen Kommentar

avatar
4000
  Subscribe  
Benachrichtige mich zu: