Suche
Neues IT-Modell entsteht: von Edge in die Cloud und zum Rechenzentrum

Edge Computing – Abstraktion und Automation ermöglichen die nächsten Schritte

Tobi Knaup

© Shutterstock / Funtap

In den letzten Jahren nahm die Diskussion rund um Edge Computing an Fahrt auf. Dahinter steckt die Verarbeitung von Daten am oder nahe dem Ort, an dem sie erstellt werden. Mittlerweile wächst die Datenmenge auch aufgrund des Internet of Things (IoT) explosionsartig an. Eine Vielzahl verschiedener Sensoren und Mikroprozessoren in Embedded-Systemen sind der Grund dafür. Sie generieren eine Fülle an Informationen und sind damit der Auslöser für die rasant wachsende Nachfrage nach Edge-Computing-Lösungen, die mittlerweile Bestandteil der IT-Strategie und -Architektur sind.

Was ist Edge Computing?

Edge Computing ist von Natur aus dezentralisiert konzipiert und eine Erweiterung der Rechenzentrumsnetzwerke sowie der Cloud. Gartner Analysten schätzen, dass circa zehn Prozent der im Unternehmen generierten Daten außerhalb traditionell zentralisierter Rechenzentren oder der Cloud erstellt und bearbeitet werden. Bis zum Jahr 2022 wird dieser Anteil laut Gartner auf 50 Prozent ansteigen. Die Auswirkungen könnten gewaltig sein – zumindest hinsichtlich des Netzwerkverkehrs, aber auch bezüglich der Verarbeitung aller Informationen. Unternehmen benötigen eine schlüssige Strategie, um diese Daten zu managen. Sie in Applikationen zu integrieren ist eine Herausforderung für jedes Unternehmen, deren Lösung immer wichtiger wird.

Edge Computing kann in fast unendlich vielen Ausprägungen stattfinden, ähnlich wie es unterschiedliche IoT-Optionen gibt. Smart Citys bieten eine Reihe von Beispielen: Hier werden etwa immer öfter Sensoren in Straßen, Brücken und andere Teilen der Infrastruktur integriert. Das Netz der Informationsknoten multipliziert sich in einem vergleichbaren Tempo wie das Kommunikationsnetzwerk, und das mit einem erstaunlichen Datenvolumen. Autonome Fahrzeuge sind eines der besten Beispiele für Edge Computing. Jedes autonome Fahrzeug produziert und konsumiert bei einer achtstündigen Fahrtzeit circa vier Terabyte an Daten. Jedes dieser Autos ist damit sein eigenes Rechenzentrum auf Rädern, das Daten in Echtzeit verarbeiten muss. Es geht aber nicht nur um die Intrastruktur und den Verkehr in einer Stadt, sondern es dreht sich um alle Arten von Daten. Dazu gehören auch das Tracken von Wetterveränderungen und der Schutz von Wildtieren bis hin zur Produktionsautomation und der Kontrolle von Flugzeugturbinen und Öl-Bohrern.

Mit Daten-Streamings von und zur Computing-Edge müssen sich die Informationsverarbeitung und Computing-Topologien recht schnell verändern. Eine Alternative wäre, alle Daten über Netzwerk-Verbindungen zum Backend an zentralisierte Rechenzentren oder Cloud-Anbieter wie AWS, Azure oder GCP zu übertragen. Diese Lösung ist sowohl unpraktisch (aufgrund der hohen Datenmengen und Latenzzeiten) als auch eine Herausforderung ob der unterschiedlichen Management-Anforderungen der verschiedenen Cloud-Provider. Ein attraktiveres Szenario ist es, das größtmögliche Datenvolumen per Edge Computing zu verarbeiten, gleichzeitig aber einen ganzheitlichen Blick auf die Informationen zu behalten.

Lesen Sie auch: Neu im Eclipse-Universum: ioFabric – die Microservices-Plattform für das Fog Computing

Einmal Cloud und zurück

Peter Levin, General Partner des VC-Unternehmens Andreesen Horowitz, unterstrich, dass dieses Szenario bereits früher Anwendung fand. Computing hat mehrere Zyklen durchlaufen: von zentralisierten zu verteilten Systemen und wieder zurück. Der kommende Schritt Richtung Edge Computing ist der nächste in dieser Dynamik. Das Muster ist bekannt und bewegte sich im letzten Jahrhundert weg von zentralisierten Mainframe hin zu verteilten Client- / Server-Architekturen. Dann wurden Daten in zentralen Clouds abgelegt, bevor es jetzt in Richtung eines dezentralen Edge Computings geht.

Eine verteilte Umgebung zu verwalten, die auch On-premise-Rechenzentren, eine oder mehrere Public-Cloud-Anbieter und potenziell eine Vielzahl an Edge-Prozessoren einschließt, ist extrem komplex. Die Anforderungen an die Edge-Verarbeitung werden rasant immer anspruchsvoller. Ein Grund dafür sind die Fortschritte im Bereich Machine Learning und Deep Learning sowie die Fähigkeit dieser Technologien, detailliertere Erkenntnisse aus den Daten zu gewinnen.

Die meisten Hybrid-Cloud-Technologien bieten eine solche integrierte Herangehensweise. Die Herausforderungen für Unternehmen, die eine Hybrid-Cloud-Strategie verfolgen, liegen vor allem bei den Cloud-Anbietern: Sie verfügen über unterschiedliche Architekturen, Schnittstellen (APIs) und Fähigkeiten, vor allem im Vergleich zu On-premise-Lösungen, die seit Jahren klar definiert sind. Organisationen, die sich für Hybrid Cloud entscheiden möchten, sehen sich oft den folgenden Herausforderungen gegenüber:

  • Jede Cloud zu entwickeln, zu konfigurieren und abzusichern, erfordert entsprechende Fertigkeiten und Expertisen. Das Ergebnis ist oftmals ein separates Team pro Cloud.
  • Die verschiedenen Clouds unterscheiden sich hinsichtlich der Entwicklung, Implementierung und teilweise sogar bei der Architektur. Dies bedeutet eine erhebliche Belastung für die Anwendungsentwicklungsteams, um Applikationen zu entwickeln, zu testen und Fehler zu beheben.
  • Daten sind die Grundpfeiler aller Applikationen. Sie können möglicherweise aufgrund ihres Volumens, der Transferkosten und -zeiten, Security- und Compliance-Anforderungen nicht zwischen Clouds transferiert werden.
  • Einige unternehmenswichtige Legacy-Anwendungen (zum Beispiel solche, die speziell für Mainframes geschrieben wurden) lassen sich nicht migrieren, da sie zu Cloud-Technologien inkompatibel sind.

Edge Computing als Erweiterung der Hybrid Cloud

Zwar sind eine Reihe von Werkzeugen verfügbar, die die Hybrid-Cloud-Herausforderungen vielleicht lösen könnten. Jedes von ihnen löst allerdings nur einen Teil der Probleme. Insgesamt ist jedoch eine Kombination verschiedener Komponenten erforderlich. Docker und Kubernetes vereinfachen beispielsweise die Implementierung von Anwendungen, lösen aber nicht die Probleme, wie sich das hohe Datenaufkommen administrieren lässt. Werkzeuge wie Amazon Snowmobile können hingegen hohe Datenvolumen vom Rechenzentrum migrieren, aber nur an einen einzigen Cloud-Anbieter (AWS) senden.

Dies sind aber bei weitem nicht die einzigen Herausforderungen, die über den gesamten Cloud-Stack hinweg – von der IaaS-Ebene bis zu Managed Cloud Services wie Datenbanken, Message Queues, CI/CD, usw. – auf Unternehmen zukommen. Organisationen stehen vor der Wahl zwischen einfach zu nutzenden Cloud-basierten Managed Services (auch wenn dies bedeutet, dass sie langfristig an diese kostenintensiven Cloud-Services gebunden sind), oder sie müssen alles selbst managen. Dazu gehören auch eine höhere Komplexität und der entsprechende betriebliche Aufwand.

Um verteilte Umgebungen vom Rand zum Rechenzentrum und zur Hybrid Cloud zu managen, ist eine Lösung notwendig, die all diese Herausforderungen löst. Ansonsten herrscht Chaos und Unternehmen wünschen sich die guten alten Tage des konsolidierten Rechenzentrums zurück. Die gute Nachricht ist, dass Edge Computing sich als Erweiterung der Hybrid-Cloud-Planung integrieren lässt. Damit entsteht ein extrem verteiltes und hochskalierbares Computing-System.

Auf den ersten Blick scheint es unmöglich, eine solche Umgebung steuern zu können. Allerdings übernehmen hier Abstraktion und Automation. Neue Management-Plattformen erlauben Unternehmen, die physische Ebene oder virtuelle Server als eine einzige leistungsfähige Maschine zu administrieren, und zwar unabhängig vom Geräte-Standort. Individuelle Komponenten können so als Management-Einheiten kombiniert (oder auch wieder aufgesplittet) werden – egal, ob es sich um Edge-Computing, Verarbeitung in einer Cloud, über eine Reihe von Clouds hinweg oder in einem On-premise-Rechenzentrum handelt.

Die Ressourcen lassen sich dadurch dynamisch und auf Basis der Computing-Anforderungen zuteilen. Da die Rechenzentrums-, Edge- und Cloud-Infrastrukturen abstrahiert werden, erhalten Betreiber und Entwickler über das verteilte Computing-Spektrum hinweg eine gleichbleibende Erfahrung: Sie können alle Anwendungen und Services durchgängig und ortsunabhängig betreiben, anstatt eine Reihe von Applikations- und System-Silos zu betreuen.

Lesen Sie auch: Fog Computing und die Cloud: Das Dreamteam für das IoT

Eine automatisierte Implementierung und Management sind der nächste Schritt. Um die neue Herangehensweise von Edge zu Cloud und Rechenzentrum abzubilden, muss nicht nur die Komplexität aufgelöst werden, sondern es muss auch die Möglichkeit bestehen, die Umgebung auszuliefern und dynamisch zu managen – und dies mit nur einem einzigen Klick (zumindest fast). Sind diese Basis-Elemente eingeführt, kann ein Unternehmen die nächste Computing-Welle realisieren.

Geschrieben von
Tobi Knaup

Tobi Knaup ist einer der Gründer und Chief Technology Officer von Mesosphere. Zuvor war er bei Airbnb verantwortlich für große Teile der Infrastruktur des Unternehmens. Tobi ist einer der Entwickler von Marathon, der Container-Orchestrierungssoftware von Mesosphere.

Kommentare

Hinterlasse einen Kommentar

Hinterlasse den ersten Kommentar!

avatar
400
  Subscribe  
Benachrichtige mich zu: