Copernicus – Europas Wächter im Weltraum

Big Data aus dem All: Satellitenbilder für jeden via Open Telekom Cloud

Jurry de la Mar

© Shutterstock / piick

Das Erdbeobachtungsprogramm Copernicus der europäischen Weltraumbehörde ESA erstellt Satellitenbilder des Planeten. Zwanzig Terabyte an Daten kommen dabei jeden Tag zusammen. Daten, die die ESA über die Open Telekom Cloud für jeden verfügbar macht.

Traktor, Pflug und Mähdrescher reichen für Landwirte längst nicht mehr aus. Wer heute sein Feld erfolgreich bestellen und effektiv sowie nachhaltig zugleich produzieren will, der greift auf ein außerirdisches Werkzeug zurück: Sentinel-2A. Der rund 1 000 Kilogramm schwere ESA-Satellit gehört zum Erdbeobachtungsprogramm Copernicus und fliegt in einem polaren Orbit um den Planeten herum. Gemeinsam mit dem Sentinel-2B bildet er dabei ein Gespann, das mit einer Abtastbreite von 290 Kilometern die Erdoberfläche scannt.

Big Data statt Bauernregel

Zehn Tage braucht das Satellitenpaar, dann hat es die gesamte Erde in einer Auflösung von 10 x 10 Metern erfasst. Nicht nur im sichtbaren Lichtspektrum, sondern auch im Infrarotbereich, um etwa die Pflanzenvitalität und photosynthetische Aktivität zu erfassen. So zeigen die Bilder dann, wo auf den Feldern aufgrund von Nährstoffdefiziten mehr Düngemittel nötig sind oder welche Gebiete mehr Wasser brauchen. Landwirte sehen, wo mehr Pflanzen gedeihen und wo wachstumsschwache Bereiche sind. Die Sentinel-2-Satelliten erkennen im Detail das, was dem menschlichen Auge in Gänze verborgen bleibt. Vorteil für den Bauern: Mit den Informationen aus dem Orbit minimiert er das Risiko von Ernteverlusten und erhöht die Wirtschaftlichkeit – Big Data aus dem All statt Bauernregeln.

Nicht nur Landwirte arbeiten mit den Daten des Copernicus-Programms (Kasten: „Copernicus – Europas Wächter im All“), sondern auch Reedereien, Versicherungen und Bauunternehmen. Die Copernicus Data and Information Access Services, kurz DIAS, stellt die Informationen in der Open Telekom Cloud für jedermann kostenlos bereit. Das Ziel der ESA: Jeder soll die Daten aus dem All einfach nutzen können – ohne aufwändige Datentransfers, ohne Investitionen in eigene IT-Infrastruktur und ohne Spezial-Know-how.

Copernicus – Europas Wächter im All
Im Jahr 1998 legten die europäische Weltraumbehörde ESA und die Europäische Kommission den Grundstein für das EU-Erdbeobachtungsprogramm Copernicus. 2014 nahm Copernicus seinen Betrieb auf. Seitdem wachen Satelliten über den Gesundheitszustand des Planeten: Mit Sensoren und Kameras liefern die Trabanten kontinuierlich Bilder und Informationen von Landmassen, Ozeanen und der Atmosphäre. Copernicus konzentriert sich auf sechs Kerndienste:

  • Die Landüberwachung erfasst Veränderungen an der Oberfläche und an Binnengewässern. So unterstützt das Programm beispielsweise die Städteplanung, das Wassermanagement, die Waldüberwachung oder auch die Landwirtschaft.
  • Die Überwachung der Meeresumwelt behält die Wasserqualität im Blick und liefert Daten für die Navigation auf See.
  • Auch die Atmosphäre steht im Fokus: Die Satelliten analysieren die Zusammensetzung der Gashülle unseres Planeten und bewerten die Luftqualität.
  • Die Überwachung des Klimawandels ist ein Querschnittsgebiet, das sich aus dem Datenmaterial der anderen Gebiete speist.
  • Copernicus trägt außerdem zum Katastrophen- und Krisenmanagement bei. Im Fall von Naturkatastrophen lässt sich das Ausmaß von Schäden bestimmen und Hilfsbedarf ableiten.
  • Auch die Sicherheit der EU-Außengrenzen haben die Satelliten im Blick. So unterstützen sie den Grenzschutz.

Satellitendaten für Jedermann

T-Systems hat im Auftrag der ESA die Informationen aus dem Weltall gewissermaßen demokratisiert: Über den Dienst Mundi Web Services  stehen nicht nur Daten, sondern auch vorbereitete Services für Analyse bereit. Denn statt jeden Nutzer für sich selbst Auswertungsdienste implementieren zu lassen, liefert Mundi die Lösung für alle: Anwender und Analyseangebote finden in der Open Telekom Cloud zusammen. Genau da, wo auch die gewaltigen ESA-Daten liegen. Nach einer Transitions- und Testphase ist Mundi Web Services im Juni 2018 an den Start gegangen. Seitdem steht der Dienst in der Open Telekom Cloud zur Verfügung, einem Public-Cloud-Angebot auf Basis der freien Cloud-Computing-Architektur OpenStack. Der Bonner Provider betreibt die Open Telekom Cloud in seinen eigenen, hochsicheren und mehrfach zertifizierten Rechenzentren in Magdeburg und Biere.

Treffen in der Cloud

Die Auswertungsdienste, die der Marketplace des Mundi Web Services anbietet, lassen sich gewissermaßen wie Apps im App-Store nutzen. Statt Daten erst herunterladen zu müssen, bearbeiten die Services die Informationen direkt in der Cloud. Das ist praktisch, zumal hier auch genau die notwendigen Rechen- und Speicherressourcen verfügbar sind, die komplexe Anwendungen der Geoinformatik überhaupt erst möglich machen. Drittanbieter sind von Mundi eingeladen, ihre Services aufzubauen und über den Marketplace zu vermarkten. So sollen über die Zeit immer mehr und immer speziellere Datendienste entstehen, wie beispielsweise das Grassland-Monitoring von e-GEOS, um den Bewuchs im Blick zu behalten. Oder die Sentinel-2-Cloudless-Anwendung von EOX, um Wolken und andere atmosphärische Störungen aus den Satellitenbildern herauszurechnen.

Ökonomische Speicherung der Daten

Alle Satellitendaten, die das Copernicus-Programm liefert, sind im Object Based Storage (OBS) der Open Telekom Cloud gespeichert. Darüber hinaus ergänzt Mundi Informationen aus vielen weiteren Quellen wie etwa Datenbanken der NASA oder Open-Data-Verzeichnisse. Eine Middleware sorgt dabei für eine ökonomische Datenhaltung. Sie teilt jedem Bit seinen Speicherplatz zu. Das heißt: Je nach Zugriffsrate oder Aktualität verlagert die Middleware die Satellitendaten in verschiedene Speicherbereiche, die sich in drei Leistungsklassen aufteilen: Standard für tägliche Zugriffe, Warm für monatliche und Cold für nur wenige Zugriffe pro Jahr. Dabei fallen die Kosten je nach Speicherbereich anders aus. Die Daten stellt Mundi Web Services kostenlos zur Verfügung. Wer Auswertungsdienste nutzt, der bezahlt Rechenressourcen im Pay-per-Use-Modell.

Ein Metadatenservice indiziert alle Daten im Speicher. So lassen sich gesuchte Bild- und Daten-Kacheln etwa über GPS-Positionen und Uhrzeiten leicht recherchieren. Auch Informationen zum Urheber der Aufnahme selbst fließen mit ein: So verfügen die Satelliten über individuelle Sensoren wie etwa Multispektralkameras, Dopplerradare oder Radiometer. Der Metadatenservice erfasst alle Attribute und ergänzt darüber hinaus In-situ-Daten von Messsystemen auf der Erde, wie meteorologischen Sensoren, Wetterballonen oder Seebojen. Auch aggregierte Datenpakete sollen künftig zum Angebot gehören. Das können beispielsweise speziell aufbereitete Bilddatensätze sein, die Anwendern dann Arbeit abnehmen. Statt die Informationen erst vorbereiten zu müssen, lassen sie sich direkt nutzen und beispielsweise auch per Programmierschnittstelle in eigene Analyseservices einbinden.

Blockchain Whitepaper 2018

Free: Blockchain Technology Whitepaper

If building a blockchain from scratch is beyond your current scope, the blockchain technology whitepaper is worth a look. Experts from the field share their know-how, tips and tricks, development advice, and strategy for becoming a blockchain master.

Auswahl im Marketplace

Wo vorher mehr als 100 000 Nutzer täglich die Copernicus-Daten heruntergeladen hatten, was die Netze extrem belastete, läuft heute alles auf den virtuellen Maschinen und Servern der Open Telekom Cloud. Statt um Übertragungskapazitäten konkurrieren zu müssen, konkurrieren nun die Anbieter mit ihren Services auf dem Mundi Marketplace. Darüber hinaus liefert die Open Telekom Cloud auch alle notwendigen Big-Data-Tools: Beispielsweise setzen Nutzer auf Software-as-a-Service-Angebote wie Map Reduce, um schnell große Datenmengen parallel über einen Hadoop-Cluster zu verarbeiten. Neben virtuellen Maschinen auf Elastic-Cloud-Servern stehen Bare-Metal-Server bereit. Und auch Datenbanken gehören als Platform-as-a-Service zum Angebot.

Alle Daten des Copernicus-Programms sollen über einen langen Zeitraum verfügbar sein. Über eine Dauer von vier Jahren soll so ein Archiv mit einer Größe von und 40 Petabyte entstehen – das entspricht 8 Milliarden Smartphonefotos mit je 5 Megabyte. Denn nicht nur die aktuellen, auch die historischen Daten liefern wertvolle Erkenntnisse. So ergreift der Landwirt heute bessere Düngemaßnahmen. Und kann die Daten dann gewissermaßen morgen nutzen, um sie mit seinen Erträgen zu vergleichen und die Ernte zu steigern – dank Big Data aus dem All.

Forschung mit Public-Cloud

Das Copernicus-Programm ist nicht nur ein gigantisches Gemeinschaftsprojekt, sondern auch ein vorbildliches Beispiel für europäische Zusammenarbeit bei industrieller Entwicklung und Weltraumforschung. Die EU-Kommission steuert das Copernicus-Programm gemeinsam mit den Mitgliedsstaaten, der ESA, der Europäischen Organisation für meteorologische Satelliten (EUMETSAT), dem Europäischen Zentrum für mittelfristige Wettervorhersage (ECMWF), weiteren EU-Agenturen und Mercator Océan. Über Copernicus DIAS greifen Unternehmen, Entwickler und die Öffentlichkeit auf die Daten zu. Das soll nicht nur neue Erkenntnisse schaffen, sondern auch neue Arbeitsplätze entstehen lassen. Die EU-Kommission erwartet, dass aus den Daten und ihren Anwendungen mehr als 48 000 neue Jobs entstehen.

Public-Cloud-Angebote wie die Open Telekom Cloud sind auch an anderer Stelle in der Wissenschaft gefragt. Universitäten und Forschungseinrichtungen können den wachsenden Speicher- und Rechenbedarf ökonomisch längst nicht mehr mit Ressourcen aus ihren Serverräumen decken. So ist beispielsweise unter der Führung des europäischen Kernforschungszentrums CERN das Angebot Helix Nebula (Kasten: „Helix Nebula – Die Wolke für die Forschung“) in der Open Telekom Cloud an den Start gegangen: Eine hybride Forschungs-Cloud, die Wissenschaftlern länderübergreifend Rechen- und Speicherressourcen bereitstellt. Je nach Bedarf rufen Forscher IT-Kapazitäten ab.

Helix Nebula – Die Wolke für die Forschung
Der Bedarf an Speicher- und Rechenressourcen in der Forschung wächst kontinuierlich. Eigene Rechenzentren in den Instituten können den Bedarf kaum noch decken. Das europäische Kernforschungszentrum CERN hat deswegen mit anderen führenden Forschungseinrichtungen eine hybride Cloud-Plattform in Auftrag gegeben: Helix Nebula – The Science Cloud. T-Systems betreibt die Forschungs-Cloud im Auftrag des CERN und realisiert dafür eine High-Performance- und eine Multi-Cloud-Lösung. Technische Grundlage dafür ist die Open Telekom Cloud.Forscher in ganz Europa haben die Möglichkeit, die Open Telekom Cloud mit eigenen IT-Ressourcen zu einer Hybrid-Cloud zu kombinieren. Der Vorteil: Wissenschaftler können Computing-, Storage-, Netz-, Sicherheits- und Management-Leistungen flexibel und schnell buchen. Das alles nicht nur mit einem Höchstmaß an Datensicherheit und Datenschutz, sondern auch mit einer garantierten Verfügbarkeit von mindestens 99,95 Prozent. So greift das CERN etwa auf Helix Nebula zu, um komplexe Berechnungen in der Teilchenphysik zu realisieren. In Spitzenzeiten nutzt das CERN rund 1 000 virtuelle Maschinen, 500 Terabyte Speicherplatz und eine Bandbreite von 10 Gigabyte pro Sekunde.
Geschrieben von
Jurry de la Mar
Jurry de la Mar
Jurry de la Mar ist Account Director bei T-Systems International GmbH und aktuell verantwortlich für das Galileo-Satelliten-Programm, das Copernicus-Erdbeobachtungsprogramm der europäischen Weltraumbehörde ESA und der Helix Nebula Science Cloud. Für diese Programme hat der ausgebildete Nuklearphysiker und Informatiker diverse Cloud-Computing- und Security-Services entwickelt. De la Mar ist Mitglied des Centrums für Satellitennavigation Hessen – ein ESA-Inkubationszentrum mit Schwerpunkt Raumfahrttechnik, das bereits mehr als 80 Unternehmen bei der Unternehmensgründung unterstützt hat.
Kommentare

Hinterlasse einen Kommentar

Hinterlasse den ersten Kommentar!

avatar
400
  Subscribe  
Benachrichtige mich zu: