Suche
Virtueller Speicherplatz für sensible Finanzdaten

Virtualisierung im großen Stil

Detlev Klage
©iStockfoto.com/kizilkayaphotos ©iS&S Media Group

Sparkassen sparen dank Cloud Computing und Servervirtualisierung IT-Kosten im großen Umfang. Gleichzeitig machen steigende Datenmengen neue Herangehensweisen erforderlich, um Speichersysteme effizient zu verwalten. Als IT-Dienstleister der Sparkassen-Finanzgruppe virtualisiert die Finanz Informatik ihre Storage-Area-Network-(SAN-)basierten Systeme.

Während die Virtualisierung von Servern und Desktops bei Unternehmen schon seit längerer Zeit zum Alltagsgeschäft gehört, nimmt die Speichervirtualisierung erst seit Kurzem Fahrt auf. Getrieben von einem stetig steigenden Datenvolumen und dem gleichzeitigen Streben nach sinkenden Kosten für die Datenspeicherung, öffnen sich immer mehr Unternehmen dieser Entwicklung. Den aktuellen Stand gibt die IDC-Umfrage „Storage in Deutschland 2013“ vom Mai 2013 wieder. Demnach setzen bereits 56 Prozent der befragten Unternehmen Virtualisierungslösungen für Speicher ein und weitere 27 Prozent planen den Einsatz einer solchen Lösung innerhalb eines Jahres. Als maßgebende Gründe geben die Befragten den Wunsch nach einer höheren Auslastung der Speicherkapazität, einer besseren Performance und sinkenden Stückkosten an. Schon frühzeitig hat sich die Finanz Informatik (FI) als IT-Dienstleister der Sparkassen-Finanzgruppe mit den Herausforderungen für Speicher auseinandergesetzt. Als einer der ersten IT-Dienstleister hat das Unternehmen eine virtualisierte Lösung für SAN-Speichersysteme produktiv eingesetzt.

Entsprechend der allgemeinen Entwicklung am Markt steigt das nutzerbedingte Datenwachstum in den Rechenzentren der FI zwischen 10 und 30 Prozent pro Jahr. Unstrukturierte Daten wie Word-Dokumente, Excel-Tabellen oder Sprach- und Videoaufzeichnungen wachsen hier in gleichem Maße wie strukturierte Inhalte in Datenbanken. Zudem werden einmal erzeugte Daten kaum gelöscht. Das erfordert etwa bei der Suche in den wachsenden Datenbeständen zusätzliche I/O-Kapazitäten. Das Unternehmen reagierte vorausschauend, um die Zukunftsfähigkeit der IT-Systeme sicherzustellen. Mittelfristig kommt der Klassifizierung von Daten eine stark steigende Bedeutung zu. So erhalten Buchungsdaten aus einem Onlinesystem eine hohe Priorisierung und Videoüberwachungsdaten eine niedrige Einstufung. Gleichzeitig verändern aktuelle Technologietrends im Storage-Markt, etwa die Verdrängung mechanischer Speichermedien wie Festplatten oder Magnetbandlaufwerke durch reine Halbleitertechnologien wie Solid State Disks, die Rahmenbedingungen für den IT-Dienstleister. In dieser Situation entwickelte die FI für ein SAN-basiertes Datenvolumen von rund 4,5 Petabyte (4 500 Terabyte) neue Lösungsansätze für die Speicherverwaltung und legte dabei insbesondere auf Sicherheit, Verfügbarkeit und wirtschaftliche Aspekte Wert. Im Gegensatz zu klassischen Lösungen bot die Virtualisierung dabei nicht nur das Potenzial für eine nachhaltige Optimierung der Speicherauslastung, sondern auch für eine Performancesteigerung und eine Reduzierung der gesamten Speicherkosten.

Die 192 000 bankspezifisch Beschäftigten der rund 420 Sparkassen in Deutschland sind es gewohnt, Softwarefunktionalitäten, Serverkapazitäten, Workloads und Rechenleistung flexibel und bedarfsgerecht zu nutzen. Abgerechnet wird dabei nach einem verursachergerechten Pay-per-Use-Modell. Die Institute zahlen nur, was an Software-as-a-Service- und Infrastructure-as-a-Service-Dienstleistungen in Anspruch genommen wird. Dabei setzt die Finanz Informatik (FI) ganz gezielt auf eine geschlossene Rechenzentrums- und Netzwerkinfrastruktur und garantiert damit im Sinne einer Private Cloud ein Höchstmaß an Sicherheit.
Das funktioniert, indem physische Infrastrukturen virtuell abgebildet werden und sich diese innerhalb kürzester Zeit an geänderte Anforderungen anpassen lassen. Lastspitzen im IT-Betrieb lassen sich dadurch günstiger auffangen und Rechenkapazitäten besser verteilen. So können beispielsweise Rechenkapazitäten, die tagsüber für Beratungsanwendungen genutzt werden, nachts für automatisierte Softwaretests eingesetzt werden. Im Zuge der IT-Konsolidierung beziehen viele Sparkassen bereits standardisierte Infrastrukturkomponenten im Sinne einer Private Cloud. Dabei werden in flexiblen, hochgradig virtualisierten Umgebungen Dienste wie Print, File oder Active Directory nach Bedarf zur Verfügung gestellt.

Das Unternehmen bietet damit den Instituten die notwendige Flexibilität, um Workloads bedarfsgerecht anzufordern und zu nutzen. Dank dieser frühzeitigen Ausrichtung des Betriebs und der Software hat der Dienstleister weitreichende Erfahrungen im Umgang mit den besonderen Anforderungen des Cloud Computing gesammelt und kann jederzeit eine hohe Verfügbarkeit und niedrige Fehlerquoten garantieren. Die bedarfsgerechte Nutzung der Rechnerressourcen trägt ebenfalls dazu bei, dass die IT-Kosten der Kunden sinken. Da aber gleichzeitig die Datenmengen stetig wachsen und dies aufgrund eines zunehmenden Aufwands in Bezug auf Verwaltung und Speicherung die Kosten wieder steigen lässt, haben die Verantwortlichen der FI nach einer weitreichenden Lösung gesucht. Folgerichtig entschied man sich für die Virtualisierung der SAN-basierten Speicherkomponenten. Um einen nachhaltigen Erfolg zu gewährleisten, wurde das Architekturkonzept an die potenziellen Risiken einer Cloud-Infrastruktur angepasst. So sollte insbesondere die möglicherweise steigende Fehler- und Ausfallquote durch eine neue Software in der Virtualisierungsschicht als „Single Point of Failure“ vermieden werden. Hier mussten die Schwachpunkte im System identifiziert werden, die einen unmittelbaren Einfluss auf die hohe Verfügbarkeit haben und aufgrund ihrer zentralen Funktionen im Fehlerfall die Betriebsfähigkeit des gesamten Systems beeinträchtigen.

Abb. 1: Storage-Virtualisierung: Reduzierung von Verschnittmengen und Flexibilisierung durch Speicherpools

[ header = Seite 2: Kleinere Verschnittmengen und Speicherpools flexibilisieren ]

Kleinere Verschnittmengen und Speicherpools flexibilisieren

Zu Beginn des Projekts hat der IT-Dienstleister die einzelnen physikalischen Speichersysteme in Speicherpools organisiert und in einer Virtualisierungsebene zu logischen Einheiten zusammengefasst (Abb. 1). Nach einer grundlegenden Initialisierung erfolgt die Verwaltung des Speichers nur noch auf dieser Virtualisierungsebene. Die Verwendung dieser einheitlichen Schnittstelle reduziert den Aufwand für die Entwicklung und Pflege der Rechnerplattformen und verkleinert die Kompatibilitätsmatrix zur Serverhardware deutlich im Vergleich zu einer heterogenen Umgebung. Mit dieser einfachen Virtualisierung gelang bereits eine deutliche Erhöhung des Auslastungsgrads. Dabei setzt die FI die Technologie des „Thin Provisioning“ ein, die Datenblöcke flexibel nutzt. Dem bereitgestellten Datenvolumen wird vorerst keine physikalische Kapazität zugewiesen. Der tatsächliche Speicherplatz wird erst beim Schreiben von Datenblöcken tatsächlich belegt. Eine Erweiterung der Kapazität erfolgt dabei unterbrechungsfrei und der direkte sowie schnelle Datenzugriff bleibt unbeeinträchtigt. Dieses On-Demand-Verfahren für die Kapazitätszuweisung sorgt für eine verbesserte Speicherauslastung und macht Kapazitätsplanung und -management deutlich einfacher. Die Unterschiede des Thin Provisioning zur herkömmlichen Bereitstellung von Speicherkapazität sind signifikant. Ein großflächiges Striping über Speicherpools sorgt für eine sehr gute Lastverteilung. In einem dritten Schritt setzt der Dienstleister bei kurzfristigem oder ungeplantem Speicherbedarf auch temporär Over Provisioning ein. Diese gesteuert eingesetzte Überbuchung von Reserven erhöht die Flexibilität beim Kapazitätsmanagement und bei der Beschaffung von neuen Systemen (Abb. 2).  Vereinfachte Bereitstellungsprozesse und eine große Wahlfreiheit unter den Herstellern der später virtualisierten Speichersysteme ermöglichen eine effiziente Organisation des Speichermanagements. Im Zusammenspiel mit einer großen Mandantenzahl sorgt das am Ende auch für die gewünschten Skaleneffekte. Für die rund 420 deutschen Sparkassen bedeutet das konkret, dass Lastspitzen eines Instituts durch die geringere Auslastung eines anderen Instituts ausgeglichen werden. Dabei kommt dem Dienstleister zugute, dass er nicht die gesamte vertraglich zugesagte Menge an Speicherplatz vorhalten muss, die er mit anspruchsvollen Service-Leveln hinterlegt hat.

Abb. 2: Vorteil Storage-Virtualisierung: Entkopplung der Server von der Speichersystemhardware

Nach der Einführung der Technologie können Speichersysteme vollkommen transparent für alle angeschlossenen Server ausgewechselt werden. Die Datenmigration erfolgt dabei im laufenden Onlinebetrieb im Hintergrund. Die FI hat mit dieser Methode mehrere Tausend Terabyte an Daten ohne Serviceunterbrechung migriert. Abhängig von der erforderlichen Leistung kommen überwiegend performante SAS-Festplatten zum Einsatz. In Umfeldern mit geringeren Ansprüchen werden preiswerte SATA-Platten eingesetzt, bei sehr hohen Ansprüchen Solid State Disks (SSD). Ändert sich der Performance- oder Kapazitätsbedarf einer Umgebung im Laufe Ihres Lebenszyklus, kann hinter der Virtualisierungsebene geräuschlos eine entsprechende Migration vollzogen werden. Gleichzeitig führte das Architekturkonzept bei der konkreten Umsetzung zu dem Ergebnis, dass die Abhängigkeit von den Systemen einzelner Hersteller auch durch eine Entkopplung der Server von der Speichersystemhardware reduziert werden konnte. Die Virtualisierungslösung übernimmt dabei als zentrales Bindeglied das Management zwischen Windows- und Unix-Servern und den Speichermedien verschiedener Hersteller. Folgerichtig ließen sich die notwendigen Managementtools auf ein Minimum reduzieren. Dabei verfolgt die FI vor dem Hintergrund einer umfassenden Betriebssicherheit einen möglichst weitreichenden Multivendor-Ansatz. Allerdings bedingt eine größere Systemvielfalt auch einen höheren Aufwand in Bezug auf den Betrieb und die Pflege der Systeme. Herstellerunabhängige FI-interne Standards für die eingesetzte Hardware unterstützen dabei die gewünschte Flexibilität. Zusätzlich verringert die Virtualisierung den Aufwand bei der Plattformerstellung für Server und vereinfacht so das Life-Cycle-Management. Auf diesem Weg hat der IT-Dienstleister rund 2 000 Server der Plattformen Windows, Linux, AIX und Solaris an 21 produktive Client-/Server-Speichernetzwerke angebunden.

Fazit

Die Erfahrungen der Finanz Informatik zeigen, dass virtualisierte Strukturen im SAN die Auslastung der Speichersysteme auch in komplexen IT-Landschaften langfristig optimieren, die Performance verbessern und die Kosten senken. Insbesondere die Senkung der Speicherkosten ist signifikant. Obwohl innerhalb der vergangenen 48 Monate die Datenmenge um 77 Prozent zugenommen hat, sanken die Speicherkosten im gleichen Zeitraum um mehr als die Hälfte. Gleichzeitig haben Technologien wie „Thin Provisioning“ und ein sehr flexibles Kapazitätsmanagement die Erwartungen erfüllt. Im sensiblen Umfeld der Finanzwirtschaft sollte Over Provisioning aber nur in Ausnahmefällen und im begrenzten Umfang eingesetzt werden, um auf kurzfristige Anforderungen zu reagieren. Mit einer stabilen, performanten und skalierbaren Virtualisierungstechnologie hat der IT-Dienstleister die Grundlage geschaffen, um auch zukünftig wachsende Datenmengen im wirtschaftlichen Rahmen zu beherrschen.

Geschrieben von
Detlev Klage
Detlev Klage
Detlev Klage trägt als Leiter des Geschäftsbereichs Client/Server und Generalbevollmächtigter der Finanz Informatik mit seinem Team die End-to-End-Verantwortung für die Plattformentwicklung, Bereitstellung und Produktion der Windows- und Unix- Produktionsinfrastruktur für die Gesamtbanklösung OSPlus (One System Plus).
Kommentare

Hinterlasse einen Kommentar

1 Kommentar auf "Virtualisierung im großen Stil"

avatar
400
  Subscribe  
Benachrichtige mich zu:
André Kiehne
Gast

Um Prozesse zu optimieren und Kosten zu sparen ist Virtualisierung oft das Mittel der Wahl und gehört mittlerweile tatsächlich zum Alltagsgeschäft. Die Komplexität die der Virtualisierungsprozess mit sich bringt birgt aber Risiken. Ein professioneller Partner der den Ablauf managt ist in jedem Fall unerlässlich. Siehe dazu auch: http://www.silicon.de/blog/warum-virtualisierung-sich-nicht-auszahlt/