Interview mit Reza Shafii, Vice President - Cloud Platform Services bei Red Hat

Kubernetes und seine Vorteile: „Zusätzliche Automation vereinfacht Entwicklung und Betrieb“

Dominik Mohilo

Reza Shafii

Kubernetes hat sich seinen Platz im Mainstream redlich verdient. Doch gibt es eigentlich Best Practices im Umgang mit der Orchestrierungsplattform? Im Interview mit Reza Shafii, Vice President – Cloud Platform Services bei Red Hat, gehen wir dieser Frage nach. Er spricht zudem über den Impact von Knative und Istio auf Red Hats OpenShift Container Platform.
 
 

JAXenter: Hallo Herr Shafii und vielen Dank, dass Sie sich die Zeit genommen haben. Auf dem OpenShift-Anwendertreffen sprachen Sie über den Status quo und die Zukunft von OpenShift: Was hält das Jahr 2019 denn für OpenShift-Nutzer bereit?

Reza Shafii: Red Hat setzt auf das Kubernetes Operator Framework und auch auf Cloud-native Funktionen für das Ökosystem der Softwarepartner, um mehr Kubernetes-Operatoren auf OpenShift bereitzustellen. Benutzer können erwarten, dass wir die Funktionalitäten der Operatoren sowohl in der Community-Version als auch für die Red Hat OpenShift Container Platform kontinuierlich ausbauen.

Im Rahmen der Integration der CoreOS-Technologien wird die Red Hat OpenShift Container Platform von einer zusätzlichen Automatisierung der Installation und einer leistungsfähigeren Verwaltung des Day-2-Cluster-Managements profitieren; dazu kommen automatisierte „Over-the-Air-Cluster-Updates“. Eine vollautomatisierte Container-Plattform führt zu einem geringeren Verwaltungsaufwand im täglichen IT-Betrieb. Diese Vision als Bestandteil der nächsten Generation von Red Hats Container-Plattform zielt darauf ab, sowohl die Arbeit von Entwicklern als auch die von Administratoren zu vereinfachen.

Red Hat unterstützt auch künftig die gesamte Kubernetes-Community, einschließlich diverser Projekte wie Knative, Istio Service Mesh und Federation V2. Für 2019 sind frühe Betaversionen und später die allgemeine Verfügbarkeit der Funktionen in OpenShift geplant.

JAXenter: Vielleicht ein kleiner Blick in die Glaskugel: Welche Features und Innovationen sind für OpenShift geplant, die aber noch Zukunftsmusik sind?

Reza Shafii: Kubernetes-Anwender wollen die Automatisierung nutzen, um ihre Systeme besser auf dem neuesten Stand zu halten. Zu den in naher Zukunft geplanten Innovationen für die Red Hat OpenShift Container Platform zählen Funktionen, um die Installation in eine neue Cloud, in eine neue Region und die Erweiterung eines Clusters bei unterschiedlichen Workloads noch einfacher und wiederholbar zu gestalten. Entwickler sollten jedes Mal über die gleichen Tools und Erfahrungen verfügen, und die IT-Teams sollten dieselben Tools und Debugging-Verfahren verwenden können, unabhängig davon, wo die Container-Plattform läuft.

JAXenter: Seit Kurzem ist Istio auf dem Markt, wie können OpenShift-Nutzer davon profitieren?

Reza Shafii: Die Möglichkeit der Zerlegung monolithischer Anwendungen in Microservices führt zu einer erhöhten Komplexität bei der Entwicklung von Services innerhalb eines verteilten Systems. Unternehmen wie Netflix haben dieses Problem durch den Einsatz einzelner Bibliotheken gelöst, die direkt in die Anwendungskomponenten integriert sind. Diese Lösung hat einen nominalen Einfluss auf die Performance und ist nach Überwindung der Lernkurve mit der Nutzung der Bibliotheken reproduzierbar. Allerdings schränkt der Einsatz der Bibliotheken sofort die Zahl der verwendbaren Entwicklungssprachen ein.

Istio Service Mesh verlagert die Funktionalität in netzwerkbasierte Services, und dies unabhängig von der Entwicklungssprache. Da Istio den Traffic Flow eines Clusters transparent macht, lassen sich damit sowohl zusätzliche Services, wie beispielsweise Authentifizierungs-Workflows und Sicherheitstechnologien, als auch die gemeinsame Transport Layer Security in den Traffic Flow integrieren. Dies wird den Bereich der Domänenexpertise verringern, die Entwickler zur Erstellung von Unternehmens-Applikationen benötigen.

JAXenter: Knative bietet eine neue Abstraktionsebene bei der Nutzung von Kubernetes und Istio. Wie könnte sich dies in OpenShift integrieren lassen?

Reza Shafii: Das Tool Knative enthält eine umfangreiche, leistungsstarke Sammlung von Bausteinen zur Erstellung von Serverless-Kubernetes-Anwendungen. Serverless bezieht sich dabei auf Aktivitäten wie das On-Demand-Up- and Down-Scaling sowie eventgesteuerte Workflows und nicht auf eine bestimmte Technologie. Entwickler können mit Knative auch Istio nutzen und moderne Anwendungen damit erstellen, was es ihnen leicht macht, beispielsweise Blue-Green-Deployments (Test-Produktiv-Umgebungen), Versionierung und Shadow-Traffic zu implementieren.

Knative und Istio im Verbund machen die Implementierung von Blue-Green-Deployments, Versionierung und Shadow-Traffic leicht.

Eine der Herausforderungen für ein Projekt wie Knative: Das Kubernetes-Ökosystem ist so umfangreich, dass die Erstellung wiederverwendbarer Bausteine den Einsatz von APIs erfordert, die den Knative-Entwicklern nicht im Voraus bekannt sind. Dies ist hier wichtig zu erwähnen, da es von zentraler Bedeutung ist, wie verschiedene Benutzer diese Bausteine in ihre eigenen Kubernetes-Praktiken integrieren.

Für OpenShift-Anwender haben wir uns zum Ziel gesetzt, Knative-Komponenten mit minimalem Änderungsaufwand in bestehende OpenShift-Projekte zu integrieren. Eine der Knative-Komponenten ist beispielsweise eine API, mit der Benutzer ein Container Image erstellen können. Wir haben bereits eine große Investition in OpenShift getätigt, um eine funktionsreiche Build-Funktion zu entwickeln, die unsere Benutzer schätzen. Sie lässt sich problemlos in Knative integrieren, wo die Serverkomponente OpenShift Builds aufrufen kann. Das bedeutet, wenn Entwickler bereits OpenShift einsetzen, erhalten sie den Wert von Knative, ohne die Teile von OpenShift aufzugeben, die sie bereits kennen.

Auf operativer Ebene gehen wir davon aus, dass OpenShift-Anwender die für Knative implementierten Operatoren so einsetzen, dass sie möglichst gute, in Unternehmensumgebungen erwartete Installations- und Betriebserfahrungen mit dieser Technologien erzielen.

Werden Sie sich 2019 mit Kubernetes beschäftigen?

Loading ... Loading ...

JAXenter: Gibt es Best Practices für die Nutzung von Kubernetes? Wel-che Tipps haben Sie? Was sollte man tunlichst vermeiden?

Reza Shafii: Ein wesentlicher Vorteil von Kubernetes: Es stellt eine Plattform bereit, um Container auf Cluster von physischen oder virtuellen Maschinen zu entwickeln und zu betreiben. Es hilft bei der Implementierung einer vollständigen, zuverlässigen Container-basierten Infrastruktur in Produktionsumgebungen. Da es bei Kubernetes um die Automatisierung betrieblicher Aufgaben geht, können Unternehmen viele der gleichen Anforderungen umsetzen, wie mit anderen Anwendungsplattformen oder Managementsystemen – nun allerdings mit Containern.

Zu einigen der Best Practices beim Einsatz von Kubernetes zählt die Entwicklung inklusive Automatisierung und die Realisierung der Vorteile einer Hybrid Cloud, ohne an einen bestimmten Cloud-Anbieter oder eine spezielle Umgebung gebunden zu sein. Die Fähigkeit, eine komplette Cluster-Umgebung wiederherzustellen, ist der Schlüssel zur Wartbarkeit, Sicherheit und Zuverlässigkeit der IT-Systeme eines Unternehmens.

JAXenter: Vielen Dank für das Interview

Reza Shafii ist Vice President – Cloud Platform Services bei Red Hat.
 
 
 
 
Geschrieben von
Dominik Mohilo
Dominik Mohilo
Dominik Mohilo studierte Germanistik und Soziologie an der Goethe-Universität in Frankfurt. Seit 2015 ist er Redakteur bei S&S-Media.
Kommentare

Hinterlasse einen Kommentar

Hinterlasse den ersten Kommentar!

avatar
4000
  Subscribe  
Benachrichtige mich zu: