Wenn Daten im Nebel verschwinden

"Verschwunden im Bermudadreieck der Cloud"

Kürzlich war ich im 19. Stock eines Hochhauses und musste feststellen: Näher an den Wolken heißt weiter weg von der Internet-Cloud – denn der Empfang da oben war schlecht für mein Mobile-Internet-USB-Modem und ist dann ganz ausgefallen (wie übrigens auch regelmäßig auf meinem Heimweg, wenn die Schnellbahn durch die Tunnel fährt). „Was mache ich jetzt?“, dachte ich mir. „Was bringt mir überhaupt so ein Computerteil ohne Internetzugang?“

Ha, aber mitschreiben kann ich! Textverarbeitung ist ja zum Glück noch lokal installiert und auch ohne Internet voll einsatzfähig. Microsoft will das ja mit dem nächsten Release ein bisschen ändern – Office über den Browser und so. Kann mir aber glücklicherweise egal sein, ich bin ja schon vor langem auf Open Office umgestiegen. Ich werde also sicher auch weiterhin selbst ohne Internetverbindung Texte schreiben können. Ohne Internetverbindung? Wie oft kommt das schon vor? Bei mir zum Glück nicht so oft, ich lebe in einem Land, in dem die Internetanbindung im Normalfall sehr gut ist (heute war ein paar Stunden lang Ausfall – vielleicht ein Bagger am Bau – aber das ist wirklich die Ausnahme). Ordentliche Internetanbindung gibt es aber nicht überall, selbst in unseren Breitengraden nicht (siehe z.B. „Brieftaube so schnell wie Breitband-Internet„). Manch einer würde sagen, das sind vernachlässigbare Fälle. Aber sind Menschen ohne Internet etwa Menschen zweiter Klasse?

Warum rede ich überhaupt vom Einzel-Endbenutzer? Reden wir doch vom Geschäft, Business interessiert uns. Das ist die Welt, in der heute von „Software as a Service“ (kurz SaaS), „Service oriented Architecture“ (kurz SOA), sowie von SOAP- und RESTful Webservices und B2B die Rede ist. An jeder Straßenecke bietet sich Software heutzutage als Webdienst an (ob’s Sinn macht oder nicht). Interessant in diesem Zusammenhang scheint mir die Anmerkung auf Wikipedia, dass der Begriff „Cloud Computing“ eigentlich sehr jung ist und es noch keine eindeutige Definition gibt.

Wie? Alle reden davon, aber wir wissen noch nicht genau, was es ist? Dabei ist es in der IT doch meistens so, dass man wenigstens am Anfang noch eher weiß, wovon die Rede ist. Je mehr Hersteller dann auf den Zug aufspringen, desto schwammiger wird die Geschichte. Es heftet sich dann irgendwann einfach jeder die Sache auf die Fahnen und schreibt es auf die Verpackung. So zum Beispiel ist doch ein jeder Multifunktions-Scanner- Drucker heute schon ein echtes Dokumenten-Management-System (kurz DMS) – hatten wir ja schon vor ein paar Jahren.

Ab wann ist eigentlich ein Dienst im Internet als Beitrag zum Cloud-Computing zu sehen? Könnte man nicht fast jede Website, so zum Beispiel die nicht nur von Privatleuten, sondern auch vom IT-Support-Business viel genutzte Google-Suche als solchen Beitrag ansehen? Oder Übersetzungsseiten wie Leo?

Webanwendungen wie Google-Docs, Salesforce-CRM, mite, Zoho und wirklich viele, viele andere gehören sowieso zu den Webdiensten für IT-Auslagerer. Aus meiner Sicht machen sie vor allem dort wirklich Sinn, wo unterschiedliche Unternehmen reibungsloser zusammenarbeiten wollen (z.B. Programm im Reisebüro schickt Reservierungsanfragen an diverse Hotels und Fluglinien).

Wie auch immer: So wandert schließlich die gesamte IT-Abteilung in die Cloud und wenn man ein Problem hat, tönt mitunter auch eine halbwegs verständliche, englische Stimme über die Online- Meeting-Software aus dem Nebel der Cloud (vorausgesetzt, es handelt sich nicht um ein Internetproblem und man versucht es zur richtigen Tageszeit). Ich habe allerdings auch schon von einem Fall gehört, bei dem es dann Streit zwischen den (nunmehr separaten) Firmen gegeben hat und die nach Fernost ausgelagerte Programmierfirma einfach alles zusammengepackt hat und abgetaucht ist – sozusagen verschwunden im Bermudadreieck der Cloud.

Selbst erlebt habe ich den Fall, dass ich beim Kunden einen Bug in einer Software gefixt habe, weil die externe Entwicklungsabteilung (in irgendwo weit weg) den Fehler nicht finden konnte. Reaktion: Beim nächsten Release wurde der Source-Code erst gar nicht mehr mitgeliefert – Programmierer beleidigt oder wie? Es gibt übrigens noch andere wundersame Dinge, beispielsweise, dass es so viele Dienstleister gibt, die CRM-Webanwendungen als Dienst anbieten. Ich konnte einmal ein Projekt beobachten, bei dem es um die Konsolidierung von Kontaktdaten in einem Unternehmen ging. Das Projekt ist kläglich gescheitert, weil kaum ein Mitarbeiter seine Kontaktdaten in eine gemeinsam genutzte Datenbank überführen wollte. Viele Mitarbeiter haben diese Informationen als ihr persönliches Kapital und Berufsgeheimnis angesehen. Ja, wenn Mitarbeiter nicht einmal in ihrem Unternehmen ihr Wissen und ihre Daten so richtig preisgeben wollen, wie gefällt es ihnen, wenn sie die Informationen „irgendeinem“ Drittanbieter anvertrauen sollen? Auf der einen Seite sorgen sich private Einzelpersonen schon bei einer Google-Suche, dass zu viel private Informationen gesammelt werden. Auf der anderen Seite werden die Daten ganzer Geschäftsbereiche sorglos an externe Dienstleister übergeben.

Ich gebe zu: Das mag in vielen Fällen nicht wirklich relevant sein. Was kümmert es den Pizza-Lieferanten ums Eck oder den Schuhverkäufer in Chicago, wenn ein IT-Dienstleister (der vielleicht auch noch in Ägypten sitzt) eine Liste seiner Kunden hat. Aber wie sieht es mit Industriebetrieben oder Anwaltskanzleien aus, wo es Betriebsgeheimnisse oder sogar strenge Auflagen zur Geheimhaltung von Klienten-Daten gibt?

Gerade für den kleinen Pizza-Lieferanten ums Eck aber scheint es attraktiv zu sein, seine Mini-IT-Abteilung in die Cloud auszulagern – das Raumklima in der Pizzaküche ist doch sicher nicht optimal für Computer. Was aber auch ihn interessieren könnte: IT-Outsourcing schützt nicht unbedingt vor Datenverlust, wie jüngst ein Fall belegt.

Bei solchen Vorkommnissen würde wohl selbst jeder Koch gerne mit der Bratpfanne ausrücken – es fehlt in unserem Fall nur leider die Gewissheit, dass alle Beteiligten ihrer gerechten Strafe zugeführt werden können, denn der Anbieter des Vertrauens (sofern halbwegs greifbar) könnte seinerseits das Vertrauen an einen anderen Anbieter ausgelagert haben.

Bei einem größeren Unternehmen mit Erfahrung werden aber doch solche Pannen nicht passieren, oder? Wie stellen Firmen eigentlich fest, wie vertrauenswürdig ein Anbieter wirklich ist? Wird in der Praxis überhaupt versucht, das festzustellen? Mein erster Gedanke war, man wird sich vielleicht an die Erfahrungen und Empfehlungen von erfolgreichen Geschäftspartnern und Beratern halten. Aber ich kann mir auch gut vorstellen, dass in der Praxis nur eines entscheidend ist: Wie viel (Platz, Dienst, Bandbreite) gibt es für möglichst lau (sprich, für wenig Geld). Hauptsache billig (bzw. günstig, wollte ich sagen).

Hier ein mögliches Szenario aus der Kategorie „Nepper, Schlepper, Bauernfänger“: Ein „Unternehmer“ bietet verschiedene Dienste wie Web-CRM oder Ähnliches gratis an. Hat er genügend Kunden an Land gezogen, dreht er die Dienste einfach ab und fordert Lösegeld für die Daten.

Oh, die Idee mit dem Lösegeld ist ja gar nicht neu – gab es schon in Virginia. Da ist jemand ins System eingedrungen, hat die Daten einfach vor Ort verschlüsselt und einen Brief mit Lösegeldforderung hinterlassen. Tja, wenn Daten nicht bloß lokal, sondern über das Internet verfügbar sein sollen, dann kommt eben auch ein Bösewicht leichter ran.

Der Hype um Webanwendungen kommt des Weiteren ja auch aus einer ganz anderen Ecke: Bei größeren Installationen auf einer Menge Windows-Clients bedeutet das für die IT-Admins immer wieder russisches Roulette. Ein gewisser Prozentsatz an PCs überlebt ein größeres Update einfach nicht. Da ist doch eine Webanwendung wirklich viel praktischer: Alles am Server, keine Software- Verteilung und damit keine zusätzliche Software (die sich um die Verteilung kümmert) notwendig. Und wo noch verwendet, kann auch die Operation Turnschuh abgesagt werden. In diesem Zusammenhang gibt es eine generelle Bewegung wieder zurück zum reinen Terminal (für die DOS- und Windows-Welt ist das ja eher was Neues).

Auf der anderen Seite werden wir bald alle Quad-Core-Notebooks haben (meines ist schon ein Dual-Core) – und dann läuft da nur ein Browser drauf! Unmengen an Rechenpower liegen also brach. Das wäre dann eigentlich eher ein Fall für Distributed Computing statt für Cloud-Computing.

Oder, wenn wir schon nicht so viel lokale Leistung brauchen, nehmen wir doch einfach ein kleines Ding mit kleinem Prozessor her – ein iPhone zum Beispiel: Windows auf dem iPhone. Ist doch cool, wenn ich eben mal im Zug oder sonst wo ein Konzept überarbeiten kann (mir persönlich ist allerdings schon das Lesen von größeren Texten auf so einem kleinen Ding zu mühsam).

Was wir aber in unserem Internet-Wahn gänzlich übersehen, ist die Netzwerklast, die in vielen Fällen aber schnell zum Flaschenhals werden kann. Mir hat das letztens auch ein Partner bestätigt: Nach deren Erfahrung ist heute bei Performance-Problemen in etwa 80% der Fälle das Netzwerk überlastet. Da kann man nur hoffen, dass der Cache bei stark JavaScript-lastigen Webanwendungen gut hält.

Aber halt: Das Caching versuchen die Programmierer ja gerade zu verhindern, damit sicher jedes Mal die aktuelle Version der Anwendung vom Server geladen wird.

Während die Leitungen rauchen, stehen die lokalen Rechenzentren leer. Diese oft hoch abgesicherten Bauwerke eignen sich doch sicher gut für VIP-Clubbings, oder? Damit käme ein bisschen was von den Kosten wieder rein.

Apropos Sicherheit: Die vielen Kilometer an Leitung kann man wohl unmöglich durchgehend gegen Subversivlinge absichern. Ein Terrorist braucht nur an unkontrollierter Stelle ein bisschen Leitung ausgraben. Auf Satellit ausweichen ist sicher eine gute Idee, wäre da nicht diese lästige Latenzzeit von ca. 500ms pro Datenpaket. Ist halt auch nicht ums Eck, der Orbit.

Nichtsdestotrotz wird heutzutage mit dem Netzwerkverkehr genauso sorglos umgegangen, wie das schon mit dem Hauptspeicher der Fall ist. Als diese Dinge noch grundsätzlich knapp waren, musste jeder sparsam damit umgehen. Vielleicht folgt nach der Wirtschaftskrise ja die Ressourcen-Krise?

Martin Wildam arbeitet als Softwareentwickler und Projektleiter bei MAY Computer GmbH in Wien seit über 12 Jahren und ist dort für die Integration von DMS- und ECM-Systemen sowie für die Entwicklung von Zusatzprodukten verantwortlich. Kontakt: http://it-tactics.blogspot.com/
Geschrieben von
Kommentare

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.