Interview mit Ewgeni Hersonski

Kong API Gateway: „Mit Kong 2.0 wird die Sprache Go als Alternative eingeführt“

Katharina Degenmann

API Gateways sind ein fundamentaler Bestandteil einer cloud-nativen Microservice-Architektur und erfreuen sich daher aktuell zunehmender Beliebtheit. Eines dieser Microservices-API-Gateways im Open-Source-Bereich ist Kong. Wir sprachen mit Ewgeni Hersonski (neuer Verantwortlicher für die KONG Inc. in der DACH-Region) darüber, was man mit Kong-API-Gatway alles anstellen kann, worin es sich von anderen API-Gatway-Lösungen unterscheidet und welche Features wir im kommenden Milestone-Release erwarten können.

JAXenter: Kong ist ein Open-Source-API-Gateway zur Verwaltung von RESTful APIs. Kannst du vielleicht kurz umreißen, welche Funktion Kong im allgemeinen mitbringt bzw. was User damit anstellen können?

Ewgeni Hersonski: Kong als API Gateway ermöglicht es Entwicklern und Publishern von APIs, sich auf die Kernfunktionalität des APIs selbst zu konzentrieren und etwa in Sachen Authentifizierung, Monitoring oder Absicherung ein zentrales System zur Verfügung zu haben. Kong geht hierbei einen moderneren Weg als die klassischen System am Markt (welche meist schon vor weit mehr als 10 Jahren designed wurden) und stellt die einfache und automatisierbare Konfiguration in den Mittelpunkt, die in den Entwicklungsabteilungen mit Schlagworten wie DevOps, CI/CD oder Cloud rapide an Bedeutung gewinnt. Hatte man früher eine zentrale Abteilung, welche nach intensiven Schulungen das Hosting eines Gateways übernahm, so kann dies heute jeder Entwickler in kürzester Zeit selbst für sich umsetzen.

Der Blick auf „nur“ RESTful APIs ist hier auch zu kurz gegriffen, Kong ist immer am Puls der Zeit und unterstützt zum einen neue Designkonzepte wie z. B. GraphQL oder Kafka von der Protokollseite her. Zum anderen ist es genauso im Deployment auf unterschiedlichsten on-premise und Cloud-Systemen zu Hause – bis hin zur Einrichtung als Ingress Controller in Kubernetes oder (mit Kuma) als Service Mesh.

JAXenter: Neben der Community Edition gibt es auch weiterhin eine kommerzielle Enterprise Edition. Worin liegt der Unterschied?

Ewgeni Hersonski: Die Enterprise Edition enthält selbstverständlichen einen professionellen Support mit SLAs, der von einem weltweiten Team zur Verfügung gestellt wird. Darüber hinaus ergänzt die Enterprise die Open Source um folgende Funktionalitäten:

  • Enterprise spezifische Plugins
  • Rechte & Rollen-Konzept inkl. einer Team-Struktur und Audit-Logs (Workspace & RBAC)
  • auf Machine Learning basierendes Alarm-System für Angriffe und Systemprobleme (Immunity)
  • automatische Erstellung von Service-Maps und OpenAPI Spezifikationen auf Basis des Traffic (Brain)
  • Monitoring mit allen Level von Global bis runter auf den Consumer (Vitals)
  • Beliebig viele Developer Portale
  • Eine grafischen Benutzeroberfläche zur visuellen Bearbeitung aller Funktionen

JAXenter: Was ist das Alleinstellungsmerkmal von Kong? Wie unterscheidet sich das Tool von anderen vergleichbaren API-Gateway-Lösungen?

Ewgeni Hersonski: Was als erstes auffällt ist die Leichtgewichtigkeit sowohl in der Größe der benötigten Hardware, welche geringer ist als für die klassischen Systeme. Auch Installation und Erlernbarkeit folgen diesem Prinzip, man kann Kong in einem Tag vollständig erlernen und auch schon auf diversen Plattformen installiert haben. Durch die moderne Architektur ist es mit Kong außerdem möglich, eine Installation praktisch überall mit demselben System durchzuführen. Traditionelle Systeme versuchen sich hier mit einem Hilfsmittel, welches sie Microgateway nennen, welches spannenderweise noch immer deutlich „fetter“ ist als Kong. Hierdurch ist Kong prädestiniert für Multi-Cloud und Hybrid (siehe auch nächste Frage).

Kong geht einen moderneren Weg als die klassischen System am Markt.

Von der Konfiguration geht Kong einen komplett anderen Ansatz – denn alles in Kong selbst ist eine API. Somit kann Kong vollständig gescripted installiert, eingerichtet und aktualisiert werden, was dazu führt, dass manuelle Fehler gar nicht mehr gemacht werden und Systeme schnell auf andere Plattformen transformiert oder wiederhergestellt werden können. Neben diesem RESTful-API zur Konfiguration wird die zweite Alternative mittels YAML-Dateien, welche Kong ebenfalls anbietet, aktuell immer populärer, da dies in der Kubernetes und OpenShift-Welt bereits die Methode ist, mit der alles konfiguriert wird.

JAXenter: Kong zielt unter anderem auf Multi-Cloud- oder Hybrid-Cloud-Architekturen ab. Warum setzen immer mehr Unternehmen auf diese Art von Architekturen? Warum nutzt man nicht eine Cloud für alles?

Ewgeni Hersonski: Hybrid-Architekturen entstehen ganz natürlich, wenn man als Firma den Weg in die Cloud geht. Das ist in der Praxis eben nicht in einem Big Bang möglich, sondern man kann dies nur Schritt für Schritt durchführen und dadurch kann es (je nach Größe und Komplexität der schon vorhandenen IT-Landschaft) viele Jahre dauern, bis das abgeschlossen ist. Auch gibt es viele Bereiche, die man gerade hier in Europa wegen Datenschutz und regulatorischen Anforderungen gar nicht so einfach in eine Cloud auslagern kann. Was wir also viel bei unseren Kunden sehen, ist der Ansatz, das neue Projekte in der Cloud geboren werden – meist aus Gründen wie Skalierbarkeit und Agilität – alte Systeme aber nur mit Verzögerung (wenn überhaupt) umgezogen werden. Und schon hat man über Jahre eine Hybrid-Installation.

In den letzten Jahren haben wir bereits mehrfach gesehen, dass einer der großen Cloud-Provider ausfiel und damit gleich unzählige Firmen nicht mehr erreichbar waren.

Sich nur in einer Cloud zu befinden, hat nur auf den ersten Blick riesige Vorteile – wenn man sich z. B. in AWS alles automatisiert mit CloudFormation aufbaut, als Datenbank Dynamo/DocumentDB nimmt, Lambada-Functions für Serverless benutzt etc., so ist diese innerhalb von AWS wunderbar untereinander verzahnt. Allerdings befindet man sich dann in völliger Abhängigkeit dieses Anbieters und ist dann sowohl in Bezug auf die Verfügbarkeit als auch auf das Preismodell von diesem komplett abhängig. In den letzten Jahren haben wir bereits mehrfach gesehen, dass einer der großen Cloud-Provider ausfiel und damit gleich unzählige Firmen nicht mehr erreichbar waren. Das kann entweder direkte finanzielle Auswirkungen haben, aber auch indirekte wie etwa abgegebene SLA an eigene Kunden oder regulatorische Strafen bei kritischen Systemen.

JAXenter: Im Januar 2020 ist Kong Gateway 2.0rc2 erschienen. Welche Neuerungen werden dort gerade entwickelt bzw. was ist darin das wichtigste Feature, Deiner Meinung nach?

Ewgeni Hersonski: Ein wesentlicher Aspekt ist die einfache Erweiterbarkeit durch leichtgewichtige Plug-ins. Mit diesen kann man in wenigen Zeilen Skript-Code vorhandene Plug-ins erweitern oder eigene Anforderungen umsetzen. Hierbei ist allerdings die erste Rückfrage meist, in welcher Sprache die Plug-ins geschrieben werden. Und dies erfolgt aktuell in Lua, einer auf leichte Erlernbarkeit und hohe Geschwindigkeit optimierten Sprache (man findet diese in vielen Performancekritischen Systemen). Viele Firmen hatten hier Berührungsängste, da kein entsprechendes Know-How verfügbar war und fragten daher nach einer Alternative. Mit Kong 2.0 wird daher die Sprache Go als Alternative eingeführt, welche mit Abstand am meisten von Nutzern gewünscht wurde.

Die Anfragen nach Service-Mesh-Kapazitäten erreichen bei uns neue Rekorde

Von der Gesamtarchitektur ist 2.0 auf dem Weg, die Separierung von Control- und Data-Plane auch beim Gateway umsetzen. Diese Begriffe haben Ihren Ursprung im Service Mesh und beschreiben die Aufspaltung in ein Administrationssystem und ein ausführendes System (im Service Mesh auch als Sidecar bekannt). Dadurch, dass Kong dieses Prinzip nun auf das Gateway übernimmt, sind in Zukunft noch flexiblere Deployments von Kong selbst, aber auch im kombinierten Einsatz mit zum Beispiel Kuma möglich. Hierauf freue ich mich persönlich sehr, denn die Anfragen nach Service-Mesh-Kapazitäten erreichen bei uns neue Rekorde.

JAXenter: Gibt es aktuell noch Features, die Dir fehlen bzw. an denen gearbeitet wird?

Ewgeni Hersonski: Mit Kong haben wir ein System, das immer am Puls der Zeit ist und daher greifen wir auch immer die aktuellsten Trends auf und setzen diese typischerweise als erstes im Markt um. Neue Features kommen daher ständig hinzu – wenn wir alleine 2019 Revue passieren lassen, fallen mir da ein TCP Gateway, Installation ohne Datenbank („dbless“), Service Mesh (Kuma), Brain & Immunity (siehe oben), Kong for Kubernetes und so vieles mehr ein.

Neben jenem, was ich oben schon für Kong 2.0 beschrieben habe, werden wir insbesondere beim Developer Portal noch Funktionen hinzufügen, welche wir häufig von Kunden angefragt bekamen (z. B. extrem flexible Subscriptions-Modelle).

Nachdem die KONG API-Plattform zunehmend an Popularität in der Community gewinnt, hat die KONG Inc. für die Region DACH (Deutschland, Österreich, Schweiz) Verstärkung für den lokalen Markt angekündigt. Ab 01. Februar 2020 ist Ewgeni Hersonski neuer Verantwortlicher für den Aufbau der KONG Inc. für die DACH-Region. Zuletzt hat Ewgeni Hersonski zwischen 2015-2019 für die Marktpräsenz & Stärkung der Community der MongoDB (NoSQL Datenbank) beigetragen. Herr Hersonski, Absolvent der London School of Economics, wird aus Frankfurt am Main heraus seine neue Tätigkeit aufnehmen.
Geschrieben von
Katharina Degenmann
Katharina Degenmann
Katharina ist hauptberuflich hilfsbereite Online- und Print-Redakteurin sowie Bücher- und Filme-Junkie. Nebenbei ist sie Möchtegern-Schriftstellerin, die heimlich hofft, eines Tages ihr Geld als Kaffee-Testerin zu verdienen. Von Februar 2018 bis Februar 2020 hat sie als Redakteurin bei der Software & Support Media GmbH gearbeitet, davor hat sie Politikwissenschaft und Philosophie studiert.
Kommentare

1
Hinterlasse einen Kommentar

avatar
4000
1 Kommentar Themen
0 Themen Antworten
0 Follower
 
Kommentar, auf das am meisten reagiert wurde
Beliebtestes Kommentar Thema
1 Kommentatoren
Michael W. Letzte Kommentartoren
  Subscribe  
Benachrichtige mich zu:
Michael W.
Gast
Michael W.

Toll. Unsere Teams haben vor wenigen Wochen Kong produktiv geschaltet, einfach & schnell deployed, flexibel & anpassbar und wahnsinnig schnell. Läuft bei uns in K8s , gleichzeitig in AWS und on-Prem bei anderen Services. Uneingeschränkt empfehlenswert.