Container

„Container sind aktuell die einfachste Möglichkeit, Applikationen zwischen Cloud- oder Private-Umgebungen zu portieren“

Nicht erst seit der Übernahme von Red Hat durch IBM schwirrt der Begriff Hybrid Cloud durch die Entwicklerszene. Wie ein solcher Hybridansatz tatsächlich durchgeführt werden kann, erklären Jan Mischlich und Benjamin Rank im Interview zur W-JAX 2018. Unsere Speaker gehen dabei auch auf die Vor- und Nachteile aktueller Container-Technologien in diesem Zusammenhang ein.

Eine Frage des Vertrauens: Container-Infrastrukturen und ihre Zuverlässigkeit

Das Vertrauen in eine Container-Infrastruktur mit Kubernetes oder OpenShift ist manchmal ein gewaltiges Problem für Entwickler. Kann man sich darauf verlassen, dass alle Container genau das machen, was sie sollen? Tim Mackey, Technical Evangelist bei Black Duck Software, erklärt in seiner Session, wie man die Zuverlässigkeit von Containern sicherstellen kann und welche Möglichkeiten es gibt, etwaige Unzuverlässigkeiten herauszufinden.

Kubernetes Patterns: Einfache Lösung für Cloud-native Probleme

Die Art und Weise, wie wir Anwendungen für Cloud-native Plattformen wie Kubernetes designen, entwickeln und sie auf solchen ausführen, unterscheidet sich signifikant von traditionellen Ansätzen. Bei der Arbeit mit Kubernetes gibt es weniger Dinge, über die man sich als Entwickler Gedanken machen muss, allerdings gleichzeitig neue Patterns und Praktiken, um alltägliche Probleme zu lösen. In seiner Session von der DevOpsCon 2017 stellt Roland Huß, Principal Software Engineer bei Red Hat, eine Reihe von Patterns für das Erstellen Cloud-nativer Anwendungen vor.

Java-Projekte für Kubernetes und OpenShift entwickeln

Viele sprechen von einem neuem IT-Zeitalter, bei dem Anwendungen in Container verpackt und von Orchestrierungsplattformen wie Kubernetes oder OpenShift skalierbar betrieben werden. Und tatsächlich spricht vieles dafür, dass wir unsere Java-Anwendungen künftig nicht mehr als JAR-, WAR- oder EAR-Artefakte ausliefern werden, sondern als Docker-Container-Images. In seiner Session von der W-JAX 2017 zeigt Roland Huß, wie dieser Übergang schmerzfrei vollzogen werden kann.

Die Skalierbarkeit im Blick: Performantere Onlineshops mit Docker

Der Wettbewerb zwischen Online-Händlern ist größer denn je. Händler stehen vor der Herausforderung, sich mit ihren Onlineshops von der Masse abzugrenzen. In Zeiten, in denen die Produktvielfalt, Individualität und Emotionalität immer mehr zum Selbstverständnis werden, wird ein Erfolgsfaktor vernachlässigt: die Performance des Shops. Ender Özgür, Head of Software Factories bei Neofonie, beschreibt den Faktor „Performance“ als Mittel im Kampf um den Online-Shopper.

Kubernetes 2.0: „Nicht nur Microservices, auch High Performance Workloads sollten im Fokus liegen“

Vier Jahre und ein bisschen mehr ist Kubernetes mittlerweile alt. Die Plattform zur Orchestrierung von Containern hat die Nutzerbasis mindestens ebenso geprägt, wie es zuvor durch Docker geschehen ist. Wir haben uns mit Klaus Ma, Kubernetes Maintainer, Co-Lead der SIG-scheduling und Entwickler bei IBM, über die vergangenen vier Jahre und die Zukunft von Kubernetes unterhalten. Außerdem gab er einen kleinen Einblick, was er sich für Kubernetes 2.0 wünschen würde.

Alles im Blick: Tracing von Anwendungen auf Kubernetes mit AWS X-Ray

Tracing ist für DevOps- und Entwickler-Teams ein wichtiger Faktor zur Informationsgewinnung, wenn es um den Zustand und die Analyse von Anwendungen geht. Probleme können so schnell erkannt und gelöst, Fehler behoben werden. Für das Tracing aller Anwendungen, die auf AWS laufen, gibt es das Tool AWS X-Ray, egal ob sie auf Amazon ECS, AWS Lambda oder einem Kubernetes Cluster gehostet sind. Im folgenden Artikel erklärt Christoph Kassen, AWS Solutions Architect, wie man AWS X-Ray in Verbindung mit Kubernetes einsetzen und betreiben kann.