Cloud

Migration nach AWS: Optimierungen für Serverless-Anwendungen

In den vorangehenden sechs Teilen dieser Serie haben wir uns mit der schrittweisen Optimierung einer Anwendung hin zu einer Serverless-Architektur, der Verschlüsselung von Daten und Optimierungen für Container beschäftigt. In diesem abschließenden Teil der Serie werfen wir einen Blick auf mögliche Optimierungen für AWS-Lambda-Funktionen mit dem Ziel, die Sicherheit, Zuverlässigkeit und Performance zu erhöhen sowie die Kosten zu senken.

Migration nach AWS: Optimierung bei Containern

Nicht alle Runtimes sind gleich. Eine wichtige Frage für Entwicklerteams ist: Besitzt die Anwendung eine Coldstart-Phase, die einen ersten Resource Burst verursacht? Es existieren einige Java Frameworks mit Dependency Injection und Annotation Scanning, die eine sehr intensive Coldstart-Phase verursachen. Aufgrund des dynamischen Wirings werden gerade in der Coldstart-Phase viele Ressourcen benötigt, die aber erst einmal komplett hochgefahren werden müssen.

Migration nach AWS: Going Serverless

In diesem Artikel möchten wir prüfen, ob unser DevOps-Team nicht noch weitere Verantwortlichkeiten in Bezug auf den Betrieb und die Wartung der Anwendung abgeben kann. Unser Team soll möglichst viel Zeit mit der Entwicklung neuer Funktionalitäten verbringen, anstatt Infrastruktur zu managen, zu skalieren und zu patchen.

Migration nach AWS: Verwendung von Managed Services

In diesem Artikel zeigen wir, wie sich eine bestehende Java-Applikation innerhalb weniger Minuten so bereitstellen lässt, dass wir uns mit dem Betrieb der Infrastruktur kaum noch auseinandersetzen müssen. Im Laufe des Artikels werden wir auf unterschiedliche Automatisierungsoptionen bei AWS Elastic Beanstalk eingehen. So können wir uns auf die Weiterentwicklung der Applikation selbst fokussieren.

Natives Elasticsearch auf Kubernetes

Vor nicht langer Zeit war es undenkbar, persistente Daten auf Kubernetes zu stellen. Kluge Ops-Teams hätten eher auf einen vergleichbaren Cloud-Service gesetzt und die Funktionalität für Simplizität und ein ruhiges Gewissen geopfert. In den letzten Jahren ist Kubernetes aber gereift und in Bereiche vorgestoßen, die zuvor nicht annähernd als geeignet für die Containerorchestrierung angesehen wurden.

3 Aspekte, wie Corona die Anwendungswelt verändert

In Zeiten der Pandemie verlagert sich das Geschäft von vielen Unternehmen fast ausschließlich in den digitalen Raum. Anwendungen sind dabei die zentrale Schnittstelle zu den Kunden und daher entscheidend für den Erfolg. IT-Teams stehen derzeit unter hohem Druck. Um herauszufinden, was sie besonders beschäftigt, hat AppDynamics Anfragen ihrer Kunden im Zeitraum 1. März – 4. April ausgewertet. Dabei zeigen sich drei Trends, die Angie Mistretta, Chief Marketing Officer bei AppDynamics, in diesem Beitrag kommentiert.

Cloud, mobile Architecture und IoT – Unsere Themen der Woche

Der Winter soll diese Woche wieder zurückkehren. Ein guter Zeitpunkt, sich an die letzte, sonnige Woche zu erinnern, die uns mit vielen schönen Artikeln erfreute. Etwa ebenso wie die vielen warmen Sonnenstunden erfreute uns das Thema Effizienz in der Cloud-Entwicklung durch Open-Source-Tools. Um uns genug Schatten zu spenden, haben wir und mit Device Shadowing im IoT am Beispiel von Amazon beschäftigt. Wer bei diesem guten Wetter an Shopping dachte, konnte sich die Ratschläge unserer Experten zu Mobile Enterprise Computing zu Gemüte führen. Unsere Top-Themen der Woche.

EnterpriseTales: Cloud-Computing is someone else’s computer

Schon lange hören wir von Kunden immer wieder von der Absicht, in die Cloud zu wollen. So viele Befürworter hinter dem Geschäftsmodell stehen, so viele Kritiker stehen ihm gegenüber. Bei Vorfällen hört man dann immer öfter in scherzhaftem Ton, dass Cloud-Computing nur „someone else’s“ Computer sei. Doch ist das tatsächlich noch so? Steckt hinter Cloud-Computing wirklich nur der Computer von jemand anderem, oder hat sich das Geschäftsmodell in den letzten Jahren gewandelt?

Going Serverless: Migration nach AWS

Im dritten Teil dieser Serie haben wir unsere monolithische Anwendung durch die Zerlegung in verteilte Microservices wartbarer gemacht. Das ermöglicht es uns, diese unabhängig voneinander zu skalieren. Der Einsatz von verwalteten Services wie dem Application Load Balancer (ALB) [1], dem Amazon Relational Database Service (RDS) [2], Amazon ElastiCache [3] und Containern, die in AWS Fargate [4] laufen, hat uns bereits erhebliche Vorteile in Bezug auf den Betrieb, die Wartung und die Skalierbarkeit der Anwendung gebracht. Wir haben ebenfalls aufgezeigt, wie durch die Verwendung von asynchroner Kommunikation zwischen den einzelnen Microservices die Ausfallsicherheit erhöht werden kann.

Themenkomplex Security: „Jede Eigenentwicklung birgt auch das Risiko eigener Sicherheitslücken“

Die moderne IT-Welt ist ein gefährliches Pflaster. Von der Entwicklung über das Deployment bis hin zur Nutzung fertiger Anwendungen gibt es quasi an jeder Ecke potentielle Schwachstellen. Kein Wunder also, dass „Security“ ein zentraler Bereich der Softwareentwicklung ist. Im Interview spricht Bert Skorupski, Senior Manager Sales Engineering bei Quest Software, über die aktuelle Sicherheitslage in der IT.

Die 4 Kernelemente Cloud-nativer Entwicklung

Die Begriffe Cloud, Cloud-enabled und Cloud-native sind nicht gleichzusetzen, die Unterschiede sind vielmehr gravierend. Das volle Potenzial der Cloud kann ein Unternehmen nur dann optimal ausschöpfen, wenn die Entwicklung und der Betrieb von Anwendungen Cloud-native erfolgt. Was Cloud-native und was Cloud-enabled ist, erklärt Matthias Kranz, Director Solution Architects Germany bei Red Hat, in diesem Artikel.