Serverless

Serverless Architecture Conference 2020: Programmvorschau & Frühbucher-Specials

Vom 20. bis 22. April 2020 findet die Serverless Architecture Conference 2020 in Den Haag statt. Da wird es höchste Zeit für eine kleine Programmvorschau – immerhin sind bereits über 25 Sessions und Workshops bekannt. Achtung! Bis Donnerstag, 13. Februar 2020, können Sie zudem von unseren Frühbucher-Specials profitieren und sich einen C64 Mini oder einen Raspberry Pi sichern.

Das Monitoring von Serverless-Anwendungen auf AWS

Serverless macht Spaß und ist einfach. Aber was ist mit der Überwachung? Lauert ein Überwachungsmonster hinter der Ecke? Zugegeben, es gibt eine Menge Möglichkeiten, das Monster zu bekämpfen, doch welche Funktionen bietet die AWS? Und was noch wichtiger ist: Wie kann man sie am besten nutzen, um sicherzustellen, dass man nachts nicht aus dem Bett gerufen wird? Diese und weitere Fragen beantwortet Nick Van Hoof in seiner Session auf der Serverless Architecture Conference 2019.

Architectural Patterns auf der Serverless-Reise von shop.LEGO.com

Serverless – ist das ein weiteres Schlagwort? Ist es real? Ist es für große Unternehmen geeignet? Oder spricht es jeden an? Wo finden wir Antworten auf solche Fragen? Der beste Weg ist es, über die Erfahrung mit Serverless-Systemen zu sprechen und das Publikum auf die Reise zu schicken, die Sie bereits hinter sich haben! Genau das tut Sheen Brisals in seiner Session auf der Serverless Architecture Conference 2019.

Engpässe in serverlosen Anwendungen

Managed Services sind zu einem Hauptbestandteil moderner Cloud-Anwendungen geworden. Die Nutzung bestehender Dienste über APIs bietet Entwicklern große Flexibilität und Geschwindigkeit. Die erhebliche Abhängigkeit von diesen Diensten, über die Sie keine Kontrolle haben, gefährdet jedoch die Leistung und die Kosten Ihrer Anwendung. Wie Serverless dabei helfen kann, erklärt Hen Peretz in seiner Session auf der Serverless Architecture Conference 2019.

Hohe Skalierbarkeit, weitreichende Ressourcen: Serverlose Webapplikationen mit AWS

Serverless Computing ist eine aktuelle Entwicklung im Cloud-Computing, bei der die meisten Anbieter mittlerweile auch Function as a Service im Programm haben. Geboten werden skalierbare Webapplikationen, bei denen man sich nicht um Ressourcen kümmern muss. Dieser Artikel ist eine Einführung in AWS Lambda von Amazon Web Services. Das händische Deployment von Lambda-Funktionen ist anspruchsvoll, aber Frameworks wie Chalice für Python-Entwickler nehmen dem Anwender die meisten Handgriffe ab.

Mit der richtigen Architektur zu mehr Geschwindigkeit

Eine in die Tage gekommene Anwendungslandschaft modernisieren – vor dieser Herausforderung stehen viele Unternehmen. So auch Amazon, das vor etwa 20 Jahren die technologischen Weichenstellungen getroffen hat, die sie zu einem der größten Cloud-Anbieter der heutigen Zeit gemacht haben. Amazon CTO Werner Vogels beschreibt die Etappen auf dem Weg dahin.

Laufzeitumgebung in AWS Lambda: In wenigen Schritten von der Anwendung zur Ausführung gelangen

AWS Lambda [1] ist ein serverloser Compute-Service, der Code als Reaktion auf Ereignisse ausführt und automatisch die zugrunde liegenden Compute-Ressourcen verwaltet. Lambda unterstützt nativ Java, Go, PowerShell, Node.js, C#, Python und Ruby. Vor kurzem wurde eine interessante neue Funktionalität vorgestellt: ein Runtime API [2], das es ermöglicht, jede andere Programmiersprache im Kontext von Lambda zu nutzen, um eigene Funktionen zu implementieren. Im Folgenden werden wir einen genauen Blick auf AWS Lambda, AWS Lambda Layers [3] und AWS Lambda Custom Runtimes [4] werfen.

Serverless Architecture Conference 2020: Die ersten Sessions & ein Weihnachtsgeschenk für Frühbucher

Vom 20. bis 22. April 2020 findet die Serverless Architecture Conference 2020 in Den Haag statt. Da wird es höchste Zeit für eine kleine Programmvorschau – immerhin sind bereits über 20 Sessions und Workshops bekannt. Achtung! Bis Donnerstag, 19. Dezember, können Sie zudem von unseren Frühbucher-Specials profitieren und sich einen C64 Mini oder einen Raspberry Pi als Weihnachtsgeschenk sichern.

Tekton-Tutorial: Cloudnative Java-Anwendungen mit Tekton entwickeln

Früher war Java in der Lage, die größten Probleme eines Unternehmens mit dem Paradigma „write once, run anywhere“ (WORA) zu bewältigen. Im Zuge von Phänomenen wie Serverless, der Popularität von cloudnativen Anwendungen und der Ausführung von Anwendungen als Linux-Container wurde Java von Sprachen wie Go und Node.js – den Vorreitern für den Aufbau von cloudnative Anwendungen – zurückgedrängt, da diese kleiner, schneller und wohl auch agiler sind.

Hohe Skalierbarkeit, weitreichende Ressourcen: Serverlose Webapplikationen mit AWS

Serverless Computing ist eine aktuelle Entwicklung im Cloud-Computing, bei der die meisten Anbieter mittlerweile auch Function as a Service im Programm haben. Geboten werden skalierbare Webapplikationen, bei denen man sich nicht um Ressourcen kümmern muss. Dieser Artikel ist eine Einführung in AWS Lambda von Amazon Web Services. Das händische Deployment von Lambda-Funktionen ist anspruchsvoll, aber Frameworks wie Chalice für Python-Entwickler nehmen dem Anwender die meisten Handgriffe ab.

11 Take-aways der DevOpsCon 2019 in München: Stoppt das binäre Denken!

Die DevOpsCon 2019 in München ist erfolgreich zu Ende gegangen. Wir blicken auf ein breites Spektrum an Themen und auf viele spannende Sessions zurück. Von der Vermittlung der DevOps-Philosophie in Unternehmen, über die neuen Herausforderungen im Security-Bereich bis zu den Diskussionen über Kommunikations-Optimierung – wir stellen unsere Highlights der DevOpsCon-Winteredition vor.

Container in den Wolken: Knative: Serverless Workloads auf Kubernetes

„Serverless“ ist heutzutage in aller Munde. Man kann den Begriff mögen oder nicht, wichtig ist, was er beschreibt. Kurz und bündig bedeutet Serverless: Eine Anwendung wird von der Skalierung her fortwährend so angepasst, dass immer die Ressourcen zur Verfügung stehen, die benötigt werden. Das kann dann bedeuten, dass gar keine Ressourcen zur Verfügung stehen. Für den Nutzer hat das den Vorteil, dass er stets nur für die Kapazität bezahlt, die für seine Anwendung benötigt wird. Sind keine Nutzer vorhanden, zahlt er auch nichts.

Sprudelnde Quellen: Knative Eventing

Nachdem wir im vorangegangenen Artikel gesehen haben, wie einfach Applikationen deployt und auf null skaliert werden können, widmen wir uns hier der Frage, welche Möglichkeiten existieren, Knative Services mit Event-Quellen zu verbinden. Knative Serving unterstützt ausschließlich HTTP als Service-Protokoll. Jedoch gibt es eine Vielzahl von Protokollen und Möglichkeiten des Datentransports, die über reine HTTP-Kommunikation hinausgehen. Eine typische Eigenschaft dieser Datenquellen ist auch, dass sie asynchron als Events ausliefern und nicht auf das Ergebnis der Verarbeitung warten. Hier setzt Knative Eventing an, das diese Datenquellen mit Knative Services flexibel verbindet und sich zudem um eine sichere und garantierte Auslieferung dieser Events kümmert.