Für eine bessere Entwicklerproduktivität

Die 3 Säulen agiler Integration: Flexibilität, Skalierbarkeit, Wiederverwendbarkeit

Sebastian Faulhaber

© Shutterstock / Gts

Die Integration von Applikationen und Daten kann eine der zentralen Voraussetzungen für eine erfolgreiche Digitale Transformation sein. Dabei erstreckt sich die Integration von einer Verzahnung interner und externer Anwendungen über die Anbindung von Partnern bis zur Bereitstellung von Services in einer Private oder Hybrid Cloud.

Klassische Architekturen, wie eine Point-to-Point-Lösung, Stern- und Hub-Topologien sowie die Business-to-Business-Anbindung, zählen zu den vorhandenen Integrationsmodellen, wenn es um Legacy-Applikationen geht. Allerdings können diese Lösungen einige wesentliche Schwächen aufweisen: Es können schwer zu wartende Monolithen, fest gekoppelte Architekturen, Dateninseln und personalintensive, unflexible Prozesse entstehen. Darüber hinaus kann es sein, dass sich Unternehmen mit einer langen IT-Tradition der Herausforderung stellen müssen, eine vorhandene Brownfield-Architektur mit Greenfield-Applikationen in eine Cloud-native Umgebung zu integrieren. Sie können sich dabei mit im Laufe der Zeit entstandenen, siloartig strukturierten Daten und Applikationen konfrontiert sehen. Oft kann es sich als schwierig erweisen, den besten Anknüpfungspunkt für die Entflechtung heterogener Systeme und Datenquellen zu finden.

Container für Application Packaging und Delivering

Eine entscheidende Rolle bei der Digitalisierung kann die Wahl der Plattform spielen, auf der Applikationen erstellt, integriert, implementiert und verwaltet werden. Die Container-Technologie kann in diesem Umfeld eine komfortablere und effiziente Möglichkeit zur Entwicklung und Bereitstellung neuer Anwendungen sein. Dies ist auch einer der Gründe, warum sich Container zu einer bevorzugten Methode für Application Packaging und Delivering herauskristallisiert haben. Ursächlich dafür ist die zentrale Eigenschaft von Containern: Sie kapseln und isolieren eine Applikation, inklusive der notwendigen Komponenten und Konfigurationsangaben, in einem Paket, das über unterschiedliche Umgebungen hinweg portabel ist. Entwickler sind damit in der Lage, containerisierte Applikationen über wiederholbare, automatisierte Pipelines bereitzustellen, um die Agilität zu steigern. Dies kann IT-Prozesse beschleunigen.

Linux-Container-Technologien zielen auf eine höhere Agilität und einfaches Management ab. Container bieten sich für Applikationen an, die einer Microservices-Architektur folgen. Im Unterschied zu monolithischen, komplexen Architekturen bestehen Microservices aus lose gekoppelten, voneinander unabhängigen Services, die eine in sich abgeschlossene Funktionalität bieten. Dank der Deployment-Unabhängigkeit sollten Änderungen an einem Service die Funktionsweisen oder Eigenschaften eines anderen Services nicht beeinflussen. Durch die Kapselung können Entwickler Microservices häufiger mit Updates oder Erweiterungen versorgen, sie müssen dazu nicht die gesamte Anwendung aktualisieren. Zudem kann es einfacher sein, kleinere Services mit definierten Schnittstellen zu ersetzen. Da Entwickler oder auch der IT-Betrieb Services unabhängig und bedarfsgerecht ausbauen können, kann die Skalierbarkeit im Vergleich zu monolithischen Architekturen verbessert werden.

Die drei Säulen einer agilen Software-Integration in Unternehmen. (Quelle: Red Hat)

Ein API-zentrierter Ansatz bei der Entwicklung von Microservices kann Entwicklern erlauben, sich auf die zentrale Business-Logik ihres Services zu fokussieren. Die traditionelle Funktionalität rund um die Verwaltung von APIs, wie das Security- und Entwickler-Onboarding, kann vom Service getrennt und separat durch das API-Management adressiert werden. Während früher Entwickler zunächst eine Applikation und erst dann die Schnittstellen programmierten, können Unternehmen nun bei ihren Integrations- und Microservices-Projekten mit einem „API-First“-Ansatz starten, mit APIs als Teil des Applikationsdesigns und dem API-Management-Lebenszyklus als fundamentaler IT-Disziplin.

Das Gebot der Integration von Bewährtem und Neuem

Wenn Unternehmen neue Applikationen und Services für ihre Mitarbeiter und Kunden entwickeln wollen, müssen sie in der Regel vorhandene Daten und Infrastrukturen mit den neuen Anwendungen und Services verbinden. Sie müssten sich mit der Greenfield-Brownfield-Integration befassen und eine Architektur-Entscheidung treffen. Setzen sie von Anfang an auf Microservices, kann dies ein schnelleres Rollout und automatische Änderungen ermöglichen – dank der Container.

Den Startpunkt dafür kann eine Private Cloud bilden, wobei einige Unternehmen Private-Cloud-Implementierungen häufig parallel zu IT-Optimierungs- und -Modernisierungsprojekten starten. Typische Aufgaben dabei sind der Aufbau von Standard-Betriebssystemumgebungen (SOE, Standard Operating Environment), die Optimierung und Aktualisierung bestehender Virtualisierungsumgebungen sowie die effizientere Verwaltung und Integration heterogener Infrastrukturen.

Eine verteilte, Cloud-native Integrationslösung wie Red Hat Fuse, die die Ressourcen der Enterprise-Kubernetes-Plattform Red Hat OpenShift nutzt, unterstützt offene Standards für die Integration und Hunderte von Konnektoren zur Verbindung mit existierenden Applikationen: von Webservices über IoT bis zu Messaging.

Über eine einheitliche Plattform können Integrationsexperten, Applikationsentwickler und Anwendern in den Fachabteilungen zusammenarbeiten. (Quelle: Red Hat)

Eine wichtige Rolle im Hinblick auf die Integration kann die Cloud-Abstraktion spielen. Der Vorteil für Unternehmen: Sie können ihre Integrationslösung zunächst für eine on-premise betriebene Private Cloud erstellen und später unter Nutzung der Ressourcen von Red Hat OpenShift entweder die komplette Lösung oder Teile davon auch in einer Public Cloud wie Amazon Web Services, Google Cloud Platform oder Microsoft Azure einsetzen. Damit können Unternehmen agiler sein und diejenige Infrastruktur im Rahmen einer Private, Hybrid oder Public Cloud nutzen, die sich zu einem bestimmten Zeitpunkt am besten für ihre Anforderungen eignet. Bei Bedarf können sie eine Container-Anwendung von der Private Cloud im eigenen Rechenzentrum in die Public Cloud oder auch wieder zurück verschieben.

Unternehmen, die ihre Applikationsumgebung modernisieren, müssen entscheiden, wie sie eine Verbindung zwischen den Legacy- und den neuen, Cloud-nativen Applikationen schaffen wollen. Diese Entscheidung kann bedeuten, den Nutzen vorhandener Anwendungen zu bewahren und mit den Vorteilen neuer, agiler Cloud-nativer Microservices-Architekturen zu verknüpfen. Über Konnektoren und APIs können Entwickler Applikationen integrieren, die über unterschiedliche Systeme on-premise, in Private und Hybrid Clouds hinweg verteilt sind. Unternehmen gewinnen damit eine größere Flexibilität und Agilität in einer Zeit der beschleunigten Digitalen Transformation.

Geschrieben von
Sebastian Faulhaber

Sebastian Faulhaber ist Senior Solution Architect, Technical Teamlead Middleware D/A bei Red Hat.

Kommentare

Hinterlasse einen Kommentar

Hinterlasse den ersten Kommentar!

avatar
400
  Subscribe  
Benachrichtige mich zu: