Knative

Container in den Wolken: Knative: Serverless Workloads auf Kubernetes

„Serverless“ ist heutzutage in aller Munde. Man kann den Begriff mögen oder nicht, wichtig ist, was er beschreibt. Kurz und bündig bedeutet Serverless: Eine Anwendung wird von der Skalierung her fortwährend so angepasst, dass immer die Ressourcen zur Verfügung stehen, die benötigt werden. Das kann dann bedeuten, dass gar keine Ressourcen zur Verfügung stehen. Für den Nutzer hat das den Vorteil, dass er stets nur für die Kapazität bezahlt, die für seine Anwendung benötigt wird. Sind keine Nutzer vorhanden, zahlt er auch nichts.

Sprudelnde Quellen: Knative Eventing

Nachdem wir im vorangegangenen Artikel gesehen haben, wie einfach Applikationen deployt und auf null skaliert werden können, widmen wir uns hier der Frage, welche Möglichkeiten existieren, Knative Services mit Event-Quellen zu verbinden. Knative Serving unterstützt ausschließlich HTTP als Service-Protokoll. Jedoch gibt es eine Vielzahl von Protokollen und Möglichkeiten des Datentransports, die über reine HTTP-Kommunikation hinausgehen. Eine typische Eigenschaft dieser Datenquellen ist auch, dass sie asynchron als Events ausliefern und nicht auf das Ergebnis der Verarbeitung warten. Hier setzt Knative Eventing an, das diese Datenquellen mit Knative Services flexibel verbindet und sich zudem um eine sichere und garantierte Auslieferung dieser Events kümmert.

Knative und die drei Zwerge: Serving, Eventing und Build

Kubernetes hat seit seiner Einführung ziemlich an Popularität gewonnen und gilt daher nun als neuer Application Server. Da die meisten Unternehmen beginnen, Serverless-Architekturen zu implementieren, wünschten sich Entwickler eine Plattform wie Kubernetes, die jedoch in der Lage ist, serverlose Workloads zu verwalten. Und so wurde Knative (Schneewittchen) im Kubernetes-Märchenland geboren. Die ganze Geschichte erzählt Kamesh Sampath (Red Hat India Pvt Ltd) in seiner Session auf der DevOpsCon 2019.

Mit AWS Lambda zur Multicloud: Function as a Service mit AWS Lambda und Knative

Viele Unternehmen werden zukünftig versuchen, ihre IT-Infrastruktur mit Hilfe der Cloud wachsen zu lassen oder gar komplett in die Cloud zu verlagern. Größere Unternehmen fordern häufig die Multicloud. Im Hinblick auf Serverless gibt es einige Möglichkeiten, einen Mulicloudbetrieb zu erreichen. Mittels AWS Lambda lässt sich eine Function zur Verfügung stellen und das Ganze mit Knative cloudunabhängig machen.

Serverless Workloads auf Kubernetes mit Knative: Eine Einführung

Das Stichwort Serverless ist heutzutage in aller Munde. Man kann den Begriff mögen oder nicht, wichtig ist jedoch, was er beschreibt. Kurz und bündig beschrieben bedeutet Serverless, dass eine Anwendung von der Skalierung her fortwährend so angepasst wird, dass immer genau die Ressourcen zur Verfügung stehen, die gerade benötigt werden. Im Zweifelsfall bedeutet das auch: gar keine! Für den Nutzer heißt das, dass er stets nur für die Kapazität bezahlt, die für das Beantworten der Anfragen zu seiner Anwendung benötigt werden. Ohne Nutzer bzw. Anfragen zahlt er eben gar nichts.

Java Magazin 12.19 erschienen: Knative – Serverless Workloads auf Kubernetes

Cloud Native“, erzählt man uns, sei das Architekturparadigma für die nächsten zehn Jahre. Aber: gehts auch ein bisschen konkreter?
Fangen wir mal so an: natürlich gibt es heute viele Architekturen, die noch auf dem klassischen Schichtenmodell aus J2EE-/Java EE-Zeiten basieren, und gewiss haben die meisten davon noch lange eine technische und ökonomische Existenzberechtigung. Um sie soll es hier nicht gehen.

Die 4 Säulen des Serverless First Mindsets

Wie ist es um die Zukunft der Serverless-Technologie bestellt? Wird Knative der de-facto-Standard für die Entwicklung von Container- bzw. Kubernetes-Anwendungen im Serverless-Kontext? Und was ist eigentlich das Serverless First Mindset? Diese und weitere Fragen beantwortete Jared Short, Senior Cloud Architect, in unserem Interview von der Serverless Architecture Conference 2019 in Berlin.

Function as a Service vs. Serverless: „Serverless ist die Basis für FaaS“

Gibt es eine Zukunft für Container mit Serverless auf dem Vormarsch? Roland Huß, Principal Software Engineer bei Red Hat, beantwortet diese Frage ausführlich im Interview von der DevOpsCon 2019 in Berlin. Wir sprachen außerdem über den Unterschied zwischen Serverless und Function as a Service (FaaS), seine Aufgabe in Red Hats Knative-Team und Kubernetes Operators.

Function as a Service mit AWS Lambda & Knative: Kubernetes als Multi-Cloud-Betriebssystem

Viele Unternehmen werden zukünftig versuchen, ihre IT-Infrastruktur mithilfe der Cloud wachsen zu lassen oder gar komplett in die Cloud zu verlagern – erste Vorstöße gibt es dazu schon. Häufig wird gerade bei größeren Unternehmen die „Multi Cloud“ gefordert. Nun gibt es auch im Hinblick auf Serverless einige Möglichkeiten, einen Mulit-Cloud-Betrieb zu erreichen. In diesem Artikel möchte ich einen kurzen Einblick geben, wie man mittels AWS Lambda eine Function zur Verfügung stellt und wie man das Ganze mit Knative Cloud-unabhängig machen kann.

Istio & Kubernetes – ein wunderbares Paar: „Istio beginnt da, wo Kubernetes aufhört“

Istio und Kubernetes sind aktuell wohl die zwei am meisten gehypten Tools des Container-Universums. Mit Knative gesellt sich ein drittes Tools hinzu, das die Vorteile der beiden in die Serverless-Welt mitnimmt. Wir haben mit Andreas Knapp, Technology Architect & DevOps Engineer bei Accenture, im Interview darüber gesprochen, wie Istio, Kubernetes und Knative zusammenspielen. Zudem geht er auf die Sicherheitsaspekte in Sachen Kubernetes ein und gibt praktische Tipps und Tricks.

Kubernetes in Serverless: „Function as a Service befindet sich noch in den Kinderschuhen“

Kubernetes hat sich seinen Platz im Mainstream redlich verdient. Doch auch das Ökosystem wächst: Knative – mit dem sich Kubernetes Serverless betreiben lässt, ist auf der Bildfläche erschienen. Im Interview mit Lutz Lange, Solution Architect bei Red Hat, sprechen wir über die neuen Entwicklungen und welche Einsatzszenarien sich nicht für Kubernetes eignen.

Kubernetes und seine Vorteile: „Zusätzliche Automation vereinfacht Entwicklung und Betrieb“

Kubernetes hat sich seinen Platz im Mainstream redlich verdient. Doch gibt es eigentlich Best Practices im Umgang mit der Orchestrierungsplattform? Im Interview mit Reza Shafii, Vice President – Cloud Platform Services bei Red Hat, gehen wir dieser Frage nach. Er spricht zudem über den Impact von Knative und Istio auf Red Hats OpenShift Container Platform.
 
 

  • 1
  • 2