Serverless

Mit der richtigen Architektur zu mehr Geschwindigkeit

Eine in die Tage gekommene Anwendungslandschaft modernisieren – vor dieser Herausforderung stehen viele Unternehmen. So auch Amazon, das vor etwa 20 Jahren die technologischen Weichenstellungen getroffen hat, die sie zu einem der größten Cloud-Anbieter der heutigen Zeit gemacht haben. Amazon CTO Werner Vogels beschreibt die Etappen auf dem Weg dahin.

Laufzeitumgebung in AWS Lambda: In wenigen Schritten von der Anwendung zur Ausführung gelangen

AWS Lambda [1] ist ein serverloser Compute-Service, der Code als Reaktion auf Ereignisse ausführt und automatisch die zugrunde liegenden Compute-Ressourcen verwaltet. Lambda unterstützt nativ Java, Go, PowerShell, Node.js, C#, Python und Ruby. Vor kurzem wurde eine interessante neue Funktionalität vorgestellt: ein Runtime API [2], das es ermöglicht, jede andere Programmiersprache im Kontext von Lambda zu nutzen, um eigene Funktionen zu implementieren. Im Folgenden werden wir einen genauen Blick auf AWS Lambda, AWS Lambda Layers [3] und AWS Lambda Custom Runtimes [4] werfen.

Serverless Architecture Conference 2020: Die ersten Sessions & ein Weihnachtsgeschenk für Frühbucher

Vom 20. bis 22. April 2020 findet die Serverless Architecture Conference 2020 in Den Haag statt. Da wird es höchste Zeit für eine kleine Programmvorschau – immerhin sind bereits über 20 Sessions und Workshops bekannt. Achtung! Bis Donnerstag, 19. Dezember, können Sie zudem von unseren Frühbucher-Specials profitieren und sich einen C64 Mini oder einen Raspberry Pi als Weihnachtsgeschenk sichern.

Tekton-Tutorial: Cloudnative Java-Anwendungen mit Tekton entwickeln

Früher war Java in der Lage, die größten Probleme eines Unternehmens mit dem Paradigma „write once, run anywhere“ (WORA) zu bewältigen. Im Zuge von Phänomenen wie Serverless, der Popularität von cloudnativen Anwendungen und der Ausführung von Anwendungen als Linux-Container wurde Java von Sprachen wie Go und Node.js – den Vorreitern für den Aufbau von cloudnative Anwendungen – zurückgedrängt, da diese kleiner, schneller und wohl auch agiler sind.

Hohe Skalierbarkeit, weitreichende Ressourcen: Serverlose Webapplikationen mit AWS

Serverless Computing ist eine aktuelle Entwicklung im Cloud-Computing, bei der die meisten Anbieter mittlerweile auch Function as a Service im Programm haben. Geboten werden skalierbare Webapplikationen, bei denen man sich nicht um Ressourcen kümmern muss. Dieser Artikel ist eine Einführung in AWS Lambda von Amazon Web Services. Das händische Deployment von Lambda-Funktionen ist anspruchsvoll, aber Frameworks wie Chalice für Python-Entwickler nehmen dem Anwender die meisten Handgriffe ab.

11 Take-aways der DevOpsCon 2019 in München: Stoppt das binäre Denken!

Die DevOpsCon 2019 in München ist erfolgreich zu Ende gegangen. Wir blicken auf ein breites Spektrum an Themen und auf viele spannende Sessions zurück. Von der Vermittlung der DevOps-Philosophie in Unternehmen, über die neuen Herausforderungen im Security-Bereich bis zu den Diskussionen über Kommunikations-Optimierung – wir stellen unsere Highlights der DevOpsCon-Winteredition vor.

Container in den Wolken: Knative: Serverless Workloads auf Kubernetes

„Serverless“ ist heutzutage in aller Munde. Man kann den Begriff mögen oder nicht, wichtig ist, was er beschreibt. Kurz und bündig bedeutet Serverless: Eine Anwendung wird von der Skalierung her fortwährend so angepasst, dass immer die Ressourcen zur Verfügung stehen, die benötigt werden. Das kann dann bedeuten, dass gar keine Ressourcen zur Verfügung stehen. Für den Nutzer hat das den Vorteil, dass er stets nur für die Kapazität bezahlt, die für seine Anwendung benötigt wird. Sind keine Nutzer vorhanden, zahlt er auch nichts.

Sprudelnde Quellen: Knative Eventing

Nachdem wir im vorangegangenen Artikel gesehen haben, wie einfach Applikationen deployt und auf null skaliert werden können, widmen wir uns hier der Frage, welche Möglichkeiten existieren, Knative Services mit Event-Quellen zu verbinden. Knative Serving unterstützt ausschließlich HTTP als Service-Protokoll. Jedoch gibt es eine Vielzahl von Protokollen und Möglichkeiten des Datentransports, die über reine HTTP-Kommunikation hinausgehen. Eine typische Eigenschaft dieser Datenquellen ist auch, dass sie asynchron als Events ausliefern und nicht auf das Ergebnis der Verarbeitung warten. Hier setzt Knative Eventing an, das diese Datenquellen mit Knative Services flexibel verbindet und sich zudem um eine sichere und garantierte Auslieferung dieser Events kümmert.

Knative und die drei Zwerge: Serving, Eventing und Build

Kubernetes hat seit seiner Einführung ziemlich an Popularität gewonnen und gilt daher nun als neuer Application Server. Da die meisten Unternehmen beginnen, Serverless-Architekturen zu implementieren, wünschten sich Entwickler eine Plattform wie Kubernetes, die jedoch in der Lage ist, serverlose Workloads zu verwalten. Und so wurde Knative (Schneewittchen) im Kubernetes-Märchenland geboren. Die ganze Geschichte erzählt Kamesh Sampath (Red Hat India Pvt Ltd) in seiner Session auf der DevOpsCon 2019.

Serverless Workloads auf Kubernetes mit Knative: Eine Einführung

Das Stichwort Serverless ist heutzutage in aller Munde. Man kann den Begriff mögen oder nicht, wichtig ist jedoch, was er beschreibt. Kurz und bündig beschrieben bedeutet Serverless, dass eine Anwendung von der Skalierung her fortwährend so angepasst wird, dass immer genau die Ressourcen zur Verfügung stehen, die gerade benötigt werden. Im Zweifelsfall bedeutet das auch: gar keine! Für den Nutzer heißt das, dass er stets nur für die Kapazität bezahlt, die für das Beantworten der Anfragen zu seiner Anwendung benötigt werden. Ohne Nutzer bzw. Anfragen zahlt er eben gar nichts.

„Auch Serverless ist keine Silver Bullet“

Das Serverless-Architekturmuster wird momentan heiß diskutiert. Welche Vorteile bringt es? Läutet es gar eine Revolution in der Software-Entwicklung ein? Oder bleibt Serverless auf eine überschaubare Anzahl bestimmter Use Cases beschränkt? Vadym Kazulkin, Software-Architekt bei ip.labs und Sprecher auf der W-JAX 2019, gibt im Interview eine Einschätzung.

Java Magazin 12.19 erschienen: Knative – Serverless Workloads auf Kubernetes

Cloud Native“, erzählt man uns, sei das Architekturparadigma für die nächsten zehn Jahre. Aber: gehts auch ein bisschen konkreter?
Fangen wir mal so an: natürlich gibt es heute viele Architekturen, die noch auf dem klassischen Schichtenmodell aus J2EE-/Java EE-Zeiten basieren, und gewiss haben die meisten davon noch lange eine technische und ökonomische Existenzberechtigung. Um sie soll es hier nicht gehen.