kalafoto - stock.adobe.com

Managementsoftware für Container: Zehn Systeme im Vergleich

Bei der Wahl von Managementsoftware für Container führt inzwischen kein Weg an Kubernetes vorbei. Doch es gibt Unterschiede zwischen den Anbietern. Zehn Varianten im Vergleich.

Unternehmen profitieren nur dann von den Vorteilen von Managementsystemen für Container, wenn sie das geeignete Produkt oder die richtigen Produkte für ihre Bedürfnisse auswählen. Die Wahl eines Herstellers für Containerinfrastruktur kann ein komplexer Prozess sein, da Käufer die Technologie von Containermanagement auf vielen Ebenen einschätzen müssen.

Virtualisiertes Hosting ist eine dynamische Angelegenheit. Dasselbe gilt in vielleicht noch größerem Maße für Orchestrierung. Eine Kombination von Containern und Orchestrierung ist also die dynamischste Konstellation, die man sich nur vorstellen kann.

Produkte verändern sich schnell, und der Markt hat sich weg von einfacheren Modellen der Containerbereitstellung hin zu einem ausgewogenen Verhältnis von Komplexität und Funktion bewegt, für das Docker und Kubernetes miteinander kombiniert werden. Google bedient dieses Marktsegment gezielt mit dem Kubernetes-Containerökosystem, zu dem Networking, Überwachung und Management sowie Zuweisung von Services und Konnektivität gehören.

Üblicherweise schrumpft der Umfang einer im Einsatz befindlichen Containerlösung nicht, sondern sie wächst entsprechend der Fähigkeiten der Technologie und den Anforderungen. Unternehmen sollten zukunftsorientiert planen und nach einer technologischen Lösung suchen, die ihnen auch in Zukunft den entscheidenden Vorteil verschaffen kann.

Während der Lektüre der vertiefenden Produktbeschreibungen in diesem Artikel sollten IT-Käufer auf die Weiterentwicklung ihres neuen Ökosystems im Hinterkopf behalten. Änderungen in der Containertechnologie und ihren Fähigkeiten und damit verbunden das neue Potential des Containers für das Unternehmen bedeuten, dass die Zahl der benötigten Funktionen steigt, um Containerbereitstellungen in skalierbaren produktiven Umgebungen laufen zu lassen.

Sobald ein Unternehmen eine engere Auswahl für Containermanagement-Software getroffen hat, sollte man in den Onlinedokumentationen der Hersteller die Details zu den Lizenzbedingungen nachschlagen.

Managementsysteme für Container können in drei Kategorien aufgeteilt werden:

Erstens gibt es für Unternehmen, die Container in einer Public Cloud unterhalten, Managed Services für Kubernetes von Cloud-Providern. Hierzu zählen Amazon Elastic Container Service (EC2), Amazon Elastic Container Service for Kubernetes, Microsoft Azure Kubernetes Service und Google Kubernetes Engine (GKE).

Zweitens können Cloud-Kunden alternativ Kubernetes-Tools ihrer Wahl auf IaaS-Instances hosten. Viele Unternehmen wählen Tools für Kubernetes-Ökosysteme, bei denen vorab integrierte Suites von Anwendungen für das Containermanagement vom jeweiligen Hersteller modernisiert werden, wenn Kubernetes sich weiter entwickelt.

Solche Ökosysteme, zu denen Red Hat OpenShift, VMware Enterprise Pivotal Container Service, Cloud Foundry, IBM Kabanero und Google Anthos gehören, sind normale Toolkits für Unternehmen, um Anwendungen in Containern und auf Basis von Microservices in einer CI/CD-Pipeline (Continuous Integration/Continuous Delivery) zu bauen. Die genannten Anbieter funktionieren auch mit Cloud-Containern, so dass ein Lock-in in den Kubernetes-Service eines bestimmten Cloud-Providers vermieden wird.

Drittens schließlich kann es für einige Anwender sinnvoll sein, sich von jeglichen Lock-In-Tendenzen ihrer Anbieter vollständig frei zu machen, indem sie sich für eine Open-Source-Variante von Kubernetes entscheiden. Sowohl KMUs als auch große Unternehmen mit breit angelegtem und komplexem Containerbedarf können davon profitieren, solche grundlegenden Toolkits zu wählen, anzupassen und sie dann mit zusätzlichen Angeboten ihrer bevorzugten Lieferanten zu ergänzen. Diese Toolkits für Containermanagement sind in der Regel mit unterschiedlichen Angeboten von VMware Pivotal ausgestattet.

Amazon ECS und EKS: Container-Management bei AWS

Amazon ist derzeit Marktführer beim Public Cloud Computing, weshalb jedes Unternehmen, das die Verwendung von Anwendungen in Containern plant, die Supportangebote von Amazon beim Container-Hosting in Betracht ziehen sollte – auch wenn das Unternehmen noch keine Public Cloud oder spezifische Services von Amazon nutzt.

Amazon hat zwei Varianten von Containern im Angebot: Elastic Container Service (ECS) und Elastic Container Service for Kubernetes (EKS). Beide erlauben es Unternehmen, Container zusammen mit der Software ihrer Wahl auf den Instanzen von Elastic Compute Cloud (EC2) einzurichten.

Zur Zeit kann nur ECS die Fargate-Technologie von Amazon verwenden, durch die Containersysteme auf virtuellen Maschinen (VMs) arbeiten können, ohne dass der Anwender die zugrunde liegenden EC2-Instanzen verwalten muss. Fargate vereinfacht Containerinstallationen auf EC2, eine Aufgabe, die viele Anwender im Vergleich zum Containereinsatz in anderen Public Clouds mühsam finden.

Es ist nicht immer leicht zu sagen, welche der beiden Optionen nun die richtige Wahl ist. Für kleine und mittlere Unternehmen ist aber Amazon EKS die Standardlösung. Große Unternehmen werden unter Umständen ebenfalls EKS vorziehen, weil es weniger Management vor Ort erfordert. Unternehmen, die keinen Managed-Container Service in der Cloud wollen und Kubernetes On-Premises für die Orchestrierung verwenden, sollten sich auf ECS mit Fargate konzentrieren.

Vorsicht ist geboten, wenn der Amazon Containerservice in Erwägung gezogen wird, nur um die Integration anderer AWS-Features (Amazon Web Services) zu erleichtern, da diese einen Lock-in verursachen und die Beweglichkeit von Anwendungen zwischen Container-Hosts im Rechenzentrum und der Cloud begrenzen können. Der Containeransatz von Amazon ist von sich aus nicht Open Source orientiert. Daher sollte jeder sichergehen, dass dessen Kubernetes-Komponente auf dem aktuellen Stand ist.

Amazon liefert genaue Anweisungen für die Integration von EKS in das Istio Service-Mesh, so dass ein Istio-Bezugssystem für umfassende Microservicebereitstellung und -Verbindung auf AWS so gut wie mit den meisten anderen Cloud-Providern sowie in den Rechenzentren eines Kunden funktioniert. Deshalb sollten Unternehmen ihre Multi-Cloud-Microservice auf Istio stützen.

Für Nutzer einer hybriden Cloud, besonders jene, die sich beim Cloud-Provider ihre Optionen offen halten wollen oder Public und Private Cloud als einen gemeinsamen Ressourcenpool behandeln wollen, ist EKS wegen seiner größeren Portabilität die beste Strategie. VMware-Anwender sollten sich bewusst sein, dass Amazon eine Kooperation mit VMware hat, die eine hybride Cloud-Integration erleichtert. Weitere Details sind unten in der Beschreibung des Kubernetes-Ökosystem von VMware ausgeführt.

Amazon ECS bietet zwei Berechnungsmodelle:

  • Fargate: Unternehmen bezahlen auf Sekundenbasis für die Mengen an virtueller CPU und Ressourcen, die pro Container benötigt werden. Die Mindestzeit ist eine Minute. Preise unterscheiden sich je nach Region.
  • EC2: Bezahlung je nach AWS-Ressourcen, die zum Speichern und Betreiben von Anwendungen in EC2 geschaffen wurden. Nach einer kostenlosen Probezeit gibt es vier Preismodelle:
    • On-Demand: Diese Variante eignet sich für Anwender, die nicht an eine langfristige Verpflichtung gebunden sein wollen und niedrigere Kosten und mehr Flexibilität wollen. Das Unternehmen zahlt für Rechenkapazität pro Stunde oder Sekunde, abhängig von den in Anspruch genommenen Instanzen.
    • Reserved Instances: Dies ist eine empfehlenswerte Option für Anwender, die eine bestimmte Speicherkapazität brauchen und Anwendungen mit einem stetigen Bedarf betreiben. Anwender erhalten einen Rabatt von bis zu 75 Prozent im Vergleich zu den On-Demand-Preisen. Reserved Instances werden mit einer Laufzeit von ein bis drei Jahren angeboten.
    • Spot Instances: Dies ist eine gute Wahl für Anwender, die mehr Flexibilität bei Start- und Endzeiten brauchen und außerdem schneller große Mengen an verfügbarer Kapazität. Anwender können freie Rechenkapazität für bis zu 90 Prozent unter dem On-Demand-Preis bekommen.
    • Dedizierte Hosts: Der physische EC2-Server kann die richtige Lösung sein für Anwender mit einer bestehenden, an einen Server gebundenen Softwarelizenz, um die Gesamtkosten zu reduzieren. Diese Option kann als On-Demand-Variante oder als Reservierung mit einem Rabatt von bis zu 70 Prozent gegenüber der On-Demand-Lösung erworben werden.

Die Amazon EKS-Preise betragen 0,20 Dollar pro Stunde für jedes erzeugtes Cluster, plus alle erzeugten AWS-Ressourcen, um Kubernetes Worker Nodes laufen zu lassen. EKS kann auch auf Fargate und auf EC2 laufen, ebenfalls zu den oben genannten Preisen.

Microsoft nähert sich Azure Kubernetes Service und Azure Service Fabric an

Microsoft bot ursprünglich zwei containerbasierte Optionen für das Hosting von Anwendungen in der Cloud an. Unternehmen sollten sich zwischen diesen anhand einer Auswahl-Flow-Chart orientieren. Für einen typischen Containereinsatz, also einen auf Kubernetes gestützten Ansatz, ist Azure Kubernetes Service (AKS) eine gute Option.

Für Anwender, die nur an einem einfachen Container-Hosting in der Public Cloud interessiert sind, gab es mit Azure Container Instances (ACS) eine andere Option, eine Art Serverless-Containerservice. Microsoft hat jedoch seine ACS-Unterstützung ab Januar 2020 eingestellt, so dass Anwender zu AKS migrieren oder ihre eigenen ACS-Cluster in Zukunft selbst unterstützen sollten.

Microsoft Azure ist bei kleinen und mittleren Unternehmen populär, da für sie die Windows-Servertechnologie und die große Bandbreite von Geschäftsanwendungen von Microsoft attraktiv ist. AKS ist generell kompatibel mit all diesen Anwendungen, aber Unternehmen sollten die Kompatibilität direkt mit einem Microsoft-Vertreter abklären.

Microsoft bietet einen Service-MeshAzure Service Fabric – für Unternehmen an, die Container nutzen, um Bereitstellung auf der Basis von Microservices zu gewährleisten. Service Fabric funktioniert gut bei hybriden Clouds, aber da es sich um ein Angebot spezifisch von und für Microsoft handelt, ist es nicht so offen wie konkurrierende Service-Mesh-Produkte wie Istio oder Linkerd. Es ist dennoch eine gute Wahl für Anwender einer hybriden Cloud, die ausschließlich Azure verwenden und ein Service-Mesh brauchen.

Wie die Container-Tools von Google und Amazon arbeitet der Container-Support von Microsoft mit anderen Webservices zusammen, um die Entwicklung von mobilen Anwendungen, Web-Frontends und anderen Komponenten zu unterstützen. Azure Service Fabric ist als Tool für die Komponentenorchestrierung bei Unternehmen besonders gut angesehen, und ist ein wichtiges Argument für die Microsoft-Angebote zum Containermanagement.

Seit der Erfindung von Kubernetes haben sich die Cloud-Services von Google im Geschäftskunden-Bereich zu einem wichtigen Konkurrenten von Amazon und Microsoft entwickelt.

AKS ist ein kostenloser Containerservice. Anwender zahlen nur für die VMs, den mit ihnen verbundenen Speicher und die verwendeten Netzwerkressourcen. Auf der AKS-Webseite findet sich auch ein Kostenrechner für Containerservices.

Google Kubernetes Engine: Kubernetes hin zur hybriden Cloud abwandeln

Seit der Erfindung von Kubernetes haben sich die Cloud-Services von Google im Geschäftskundenbereich zu einem wichtigen Konkurrenten von Amazon und Microsoft entwickelt. Google legt Wert darauf, Stateful-Ressourcen für Container zu ermöglichen, was in anderen Public Clouds schwer umzusetzen ist. Da immer mehr Unternehmen hybride Cloud-Containerbereitstellungen verwenden, hat Google in diesem Bereich das Angebot erweitert.

Die Google Kubernetes Engine (GKE) ist ein Managed-Kubernetes-Service, mit dem Google den Zustand des Clusters überwacht. GKE richtet sich an Containeranwender, die Public-Cloud-Support brauchen, ohne sich dabei mit Details auseinandersetzen zu müssen. Der Funktionsumfang ähnelt dem von Microsoft AKS und Amazon Fargate.

Google hält GKE auf demselben Stand wie Kubernetes, was für Anwender wichtig ist, die einen Cloud-basierten Kubernetes-Service wünschen, aber gleichzeitig Kubernetes On-Premises in Betrieb haben. Tatsächlich stellt Google für diejenigen, die bei Containeranforderungen mehr zu Kubernetes-Clustern als zu Docker-Systemen tendieren, die wohl besten Variante insgesamt dar.

Kleine und mittlere Unternehmen, die nicht fest an einen Cloud-Provider gebunden sind und die allereinfachsten Kubernetes-Einsätze wollen, werden wahrscheinlich ebenfalls feststellen, dass die Implementierung von Google die beste Wahl für ihr Unternehmen ist. Anthos, das Containerökosystem von Google (Details siehe weiter unten), ist besonders vielversprechend für jene Unternehmen, die Microservices in großem Stil einsetzen.

GKE benutzt Instanzen der Google Compute Engine (GCE), um Nodes im Cluster laufen zu lassen. Unternehmen müssen entsprechend den Preisen von GCE pro Instanz bezahlen, bis die Nodes gelöscht sind. Die Preise für die Compute-Engine-Ressourcen werden nach Sekunden mit einer Minute als Mindestabrechnungszeit berechnet.

Google Anthos: Managementpaket für Multilayer-Container

Anthos ist Googles allerneuestes Containerangebot, das breiteste Kubernetes-Ökosystem von einem Public Cloud Provider und zugleich der ehrgeizige Versuch von Google, sich als Cloud-Anbieter für Großkunden zu positionieren.

Anthos ist ein Kubernetes-Ökosystem, das Kubernetes-Cluster zusammenfasst oder miteinander verbindet, die  in einer Cloud oder einem Rechenzentrum der Wahl arbeiten. Zu einem Ressourcenpool zusammengeführt ermöglichen sie Einrichtung, Weiterverteilung, Skalierung und Load Balancing gestützt auf ein gemeinsames Regelwerk über alle Hosting-Varianten hinweg.

Google Anthos kombiniert einfache Container, Kubernetes-Orchestrierung, Service-Mesh von Istio und Knative Serverless Computing, sowie Monitoring- und Management-Systeme. Zudem unterstützt es alle Konfigurationen von Public und Hybrid Clouds. Für Microserviceanwendungen ist Anthos vielleicht das umfassendste verfügbare Produkt, aber Kunden können dieselben Fähigkeiten erhalten, indem sie eigenständige Service-Mesh- oder Cloud-Native-Tools zu anderen Cloud-basierten Managed-Kubernetes-Services hinzufügen.

Für Unternehmen, die mit Containermanagement in seiner reinen Form arbeiten wollen, ist Anthos ein geeignetes Paket mit verschiedenen Ebenen wie dem Betrieb von Anwendungen, Security, Plattformunterhalt und Infrastruktur. Auf diese Weise wird Clustermanagement für Kubernetes zentralisiert, so dass Anwender Hybrid- und Multi-Cloud-Bereitstellungen effizienter steuern können und dabei die Kompatibilität mit Kubernetes-basiertem Cloud Hosting erhalten.

Die Preisgestaltung von Anthos unterscheidet sich stark je nach Art der Instanzen und der Region. Anthos ist als Jahresvertrag zu einem monatlichen Listenpreis von 10.000 Dollar pro Monat und pro 100 virtuellen CPUs (vCPUs) erhältlich. Das Produkt wird auch in Blöcken von 100 vCPUs planbarer Rechenkapazität verkauft, unabhängig von der zugrundeliegenden Infrastruktur. Die Gebühren decken den Gebrauch von verschiedenen Komponenten mit ab, die einzeln bepreist werden können, aber als Teil von Athos gelten. Für jeden der 100-vCPU-Blöcke fallen darunter:

  • Stackdriver Logging: 5.000 Gibibytes pro Monat
  • Stackdriver Monitoring: 375 Mebibytes pro Monat
  • Stackdriver Trace: 50 Millionen Spans pro Monat
  • Traffic Director: 300 (gleichzeitige) Endpoints

Ein monatliches Abonnement von Google Anthos umfasst nicht den notwendigen Support. Google empfiehlt Enterprise-Level-Support, der 15.000 Dollar pro Monat oder einen Prozentsatz an den Gesamtausgaben des Lieferanten kostet, je nachdem was höher ist.

IBM Kabanero: Containermanagement mit Fokus auf CI/CD

Viele Unternehmen planen in der Zukunft die Entwicklung von Anwendungen speziell für die Cloud, statt einer Migration bestehender Anwendungen in die Cloud. Vor diesem Hintergrund hat IBM ein Kubernetes-Ökosystem mit Namen Kabanero entwickelt, das auf die Erleichterung von Cloud-nativer Entwicklung und Bereitstellung abzielt. Konkret heißt das, IBM Kabanero unterstützt auf Microservices aufbauende Anwendungen und CI/CD-Verfahren (Continuous Delivery/Continuous Integration). Kabanero unterstützt ferner konkurrierende Public-Cloud-Bereitstellungen von Kubernetes und Containerkomponenten.

Die Besonderheit von Kabanero innerhalb des Kubernetes-Ökosystems besteht in seiner Unterstützung von CI/CD durch Tekton und die Entwicklerunterstützung durch CodeWind, aber das heißt nicht, dass es in den übrigen Bereichen gegenüber den Konkurrenten zurücksteht. Zu Kabanero gehören Istio und Knative sowie neue Open-Source-Projekte, um Container-Images und die aus CI/CD resultierenden Arbeitsschritte für Bereitstellung und Betrieb zu managen.

Erste Anwender von Kabanero berichten, dass es die Entwicklung und Installation von Containern und Microservices erleichtert wurden. Viele der Kernelemente von Kabanero seien aber noch primär IBM-Projekte, obwohl es sich ja um Open Source handele. Es ist auch unklar, wie Kabanero und OpenShift sich zueinander verhalten werden, jetzt wo IBM offiziell Red Hat übernommen hat.

Kabanero ist zu 100 Prozent ein Open-Source-Projekt.

Red Hat OpenShift: Containermanagement in Rechenzentren oder in der Cloud

Red Hat ist ein renommierter Lieferant von Open-Source-Tools, besonders Linux-Software, die alle standardisiert und nahtlos miteinander kompatibel sind sowie voll unterstützt werden. Große und kleine Unternehmen benutzen Produkte von Red Hat, und diejenigen, deren Rechenzentren auf Red Hat Enterprise Linux (RHEL) aufgebaut sind, sollten ernsthaft Red Hat OpenShift in Betracht ziehen, eine Suite, die sich auf Docker und Kubernetes stützt.

Der Grad an Kompatibilität mit den übrigen Produkten von Red Hat, besonders der Tools zur Überwachung von Softwareprojekten, macht OpenShift ungewöhnlich einsteigerfreundlich für Unternehmen, die nicht über viel Linux- oder Containererfahrung verfügen. Das Produkt hilft außerdem Firmen, die für und in Linux-Umgebungen von Red Hat entwickeln. Kleine und mittlere Unternehmen können mit Red Hat und OpenShift im Verband eine Lösung für sowohl das Rechenzentrum als auch die Cloud finden.

OpenShift ist erst mit der neuen Version 4 zum Kubernetes-Ökosystem geworden, die rund um das Kubernetes Operator Framework von Red Hat gebaut worden ist. Es handelt sich um einen anpassbaren Controller, der den Zustand von Kubernetes-Pods, Services und anderen Komponenten überwacht und verwaltet. Wenn Komponenten einen abnormalen Zustand aufweisen, kann Operator sie wiederherstellen. Version 4 konzentriert sich wieder auf den vollständigen Lebenszyklus von Anwendungen, der für Unternehmen allgemein von zentraler Bedeutung ist und für CI/CD besonders.

OpenShift ist als Containerplattform für die Installation in Rechenzentren erhältlich sowie in Cloud-zentrischen Versionen wie OpenShift Dedicated for AWS and Google und Red Hat/Azure for Microsoft Azure. Die Cloud-zentrischen Versionen von OpenShift erzeugen hybride Cloud-Plattformen in Zusammenarbeit mit populären Public-Cloud-Providern.

Red Hat verwaltet den OpenShift Dedicated Service auf AWS und Google und arbeitet mit Microsoft bei der Azure-Version zusammen. In beiden Fällen gibt es eine Integration mit On-Premises-Bereitstellungen von Virtual Private Clouds (VPC) auf der Basis von OpenShift.

Red Hat hat in sein Kubernetes-Ökosystem weder Service-Mesh- noch Serverless-Technologie aufgenommen. Unternehmen, die vermehrt Microservices einsetzen oder das zumindest vorhaben und Red Hat auf dem Server oder On-Premises-Container verwenden, sollten deshalb eine Kombination von IBM Kabanero und der OpenShift-Container-Plattform in Erwägung ziehen, statt nur OpenShift allein.

OpenShift ist in drei Varianten erhältlich:

  • Azure Red Hat OpenShift stellt Fully Managed OpenShift-Cluster von Red Hat auf Microsoft Azure zur Verfügung. Microsoft und Red Hat sind beide für die technische Ausführung, den Betrieb und den Support des Service zuständig. Ein solcher hoch verfügbarer, Fully Managed Cluster, ab vier Anwendungs-Nodes kostet 16.000 Dollar aufwärts pro Jahr. Skalierung je nach Bedarf mit zusätzlichen Anwendungs-Nodes beginnt bei 0,761 Dollar pro Stunde. Die Preise schließen nicht die Kosten für die Rechenleistung von Azure ein.
  • OpenShift Dedicated besteht aus Kubernetes in einer virtuellen Private Cloud auf AWS. Laut Red Hat wurde eine Variante für Google Cloud Platform ausgesetzt und soll neu konfiguriert werden, um OpenShift 4 zu entsprechen. Anwender können OpenShift Dedicated über Cloud Provider Accounts bereitstellen, die Red Hat gehören: Ein Cluster mit Einzelverfügbarkeit beginnt bei 36.000 Dollar pro Jahr und ein Cluster mit mehrfacher Verfügbarkeit beginnt bei 81.000 Dollar pro Jahr. Wer bestehende Cloud-Provider-Rabatte und Einstellungen mitbringt, kann den Single-Availability-Cluster ab 16.000 Dollar pro Jahr und ein Multiple-Availability-Cluster ab 36.000 Dollar pro Jahr bekommen.
  • Bei der OpenShift Container Platform werden die Preise pro Core festgelegt. Diese sind unabhängig von Premium- oder Standard-SLAs (Service Level Agreements), auf welcher Infrastruktur der Container bereitgestellt wird oder ob das im eigenen Rechenzentrum oder in einer Public Cloud geschieht. Die genauen Preise hängen von der Größe und anderen Faktoren ab.

VMware Enterprise PKS: Containermanagement in der Multi-Cloud

Die Palette von Containerprodukten von VMware ist komplex, hauptsächlich, weil verschiedene Anwendungsfälle und Marktbedürfnisse hinter der Strategie des Herstellers stehen. Die Kunden sollten die VMware-Angebote entweder als dem Cloud- oder dem vSphere-Bereich zugehörig wahrnehmen.

Erstere konzentrieren sich auf Public-Cloud-Bereitstellungen mit VMware Enterprise PKS. Die anderen Angebote, auf die wir weiter unten genauer eingehen, erweitern das vSphere-Hosting, das sich zu einem VM-zentrierten Rechenzentrumsmodell entwickelt hat, um die Containerfunktion.

VMware Enterprise PKS stützt sich im Wesentlichen auf das Pivotal Container System (PKS) mit erweiterten Sicherheits- und Skalierungsfunktionen und globalem Support. Diese Entwicklung wurde vor allem durch die Konkurrenz mit Red Hat gefördert, während andere Kubernetes-Ökosysteme eine geringere Rolle spielten. Daher ähneln die Features mehr den Cloud-zentrischen Angeboten von OpenShift als den mehr auf Entwicklung ausgerichteten Ökosystempaketen von Google oder IBM. Zusätzlich hat VMware eine enge, aber nicht exklusive Zusammenarbeit mit Amazon etabliert, weil Amazon bisher die direkte Präsenz in Rechenzentren und privaten Clouds fehlt.

Enterprise PKS ist primär eine Multi-Cloud-Lösung, mit der Containerbereitstellungen in der Public Cloud in das vSphere-Rechenzentrum integriert werden. Für aktuelle Anwender von VMware vSphere stellt es ein stabiles Produkt dar und ist somit die logische Wahl. Enterprise PKS arbeitet auch mit anderen VMware-Angeboten, wie zum Beispiel der Harbor Registry zusammen. Gegenwärtig liefert es keine Service-Mesh- oder Serverless-Funktionen, aber Kunden könnten diese durch eine Integration anderer Services nachrüsten.

Eines der überzeugendsten VMware-Tools, die mit Enterprise PKS zur Verfügung gestellt werden, ist NSX, das virtuelle Netzwerk-, beziehungsweise SDN-Angebot von VMware. Kubernetes besitzt zwar ein Integrationsmodul für virtuelle Netzwerke und in einigen Varianten auch verschiedene eigene grundlegende Tools für virtuelle Netzwerke.

NSX ist jedoch ein viel breiter aufgestelltes virtuelles Netzwerk mit Vorteilen bei Skalierung und Leistung. Außerdem integriert VMware seit seiner Akquise von VeloCloud SD-WAN-Funktionen in NSX. Damit müsste eine vollständige Abdeckung vom Rechenzentrum bis zur Cloud gegeben sein. Die NSX-Integration ist höchst wichtig für Unternehmen mit einer großen Anzahl von Rechenzentren und dem Plan, in Zukunft Container-Hosting anzubieten.

Angesichts der neuen und rasanten Änderungen im Bereich des Kubernetes-Ökosystems wird sich auch der gesamte Containeransatz von VMware wahrscheinlich mit hoher Geschwindigkeit weiterentwickeln. In diesen Zusammenhang ist auch der Kauf von Pivotal durch VMware einzuordnen. Anwender sollten sich regelmäßig beim Hersteller über die neuesten Produkte und Preise informieren.

Cloud Foundry: Containerunterstützung durch Runtime-Plattformen

In vielerlei Hinsicht stellt Cloud Foundry (CF) eine von den bisherigen vorgestellten Versionen grundlegend verschiedene Art Kubernetes-Ökosystem dar. Es kann als Ergänzung zu den meisten anderen Kubernetes-Ökosystemen in diesem Überblick betrachtet werden. Außerdem sind viele der Unternehmen, die Kubernetes-Ökosysteme anbieten, zugleich Partner von Cloud Foundry.

Cloud Foundry ist weniger auf Kubernetes oder Container ausgerichtet, sondern eher ein integrierter Satz von Runtime-Plattformen, die auf Open-Source-Tools beruhen. Die Cloud Foundry Container Runtime bietet integrierten Containersupport für Kubernetes, um den es primär in diesem Artikel geht.

Die Cloud Foundry Application Runtime stellt Applikationsentwicklung und -bereitstellung zur Verfügung, die unabhängig von Sprach- und Cloud-Systemen sind. Sie unterstützt Container, aber ohne die Genauigkeit und Kontrolle über das Ökosystem, die Kubernetes normalerweise bietet.

Die CF Application Runtime ist ein unabhängiges Containerökosystem, das auf einer begrenzten Orchestrierung beruht. Im Hinblick auf die Vollständigkeit des Kubernetes-Ökosystems baut Cloud Foundry über die Open Service Broker API und die Foundry Service Integration Library auf ihren eigenen Runtimes auf.

Auf diese Weise ist Cloud Foundry mit Service-Mesh-Technologien wie Istio oder serverlosen Bereitstellungs-Tools wie Knative kombinierbar. Die Application Runtime ist für die meisten modernen Einsatzszenarien von Containern geeignet und zugleich kompatibel sowohl mit Rechenzentrums- als auch mit Multi-Cloud-Umgebungen.

Unternehmen, die eine Transformation in Richtung Cloud und Container beabsichtigen und bis heute wenig dafür getan haben, sollten Cloud Foundry als einen Baustein für ihre Containerstrategie in Erwägung ziehen. Die Application Runtime ist mehr auf Entwickler ausgerichtet, so dass andere Tools besser für komplexe Containeranwendungen geeignet sind.

Üblicherweise schrumpft der Umfang einer Container-Lösung nicht, sondern sie wächst entsprechend der Fähigkeiten der Technologie und den Anforderungen. Unternehmen sollten zukunftsorientiert planen.

Die CF Container Runtime hat ihre eigenen Vorteile für ein Kubernetes-Ökosystem. Sie schließt CF BOSH ein, ein recht umfassendes Tool für Lifecycle-Management, mit dem sich unter anderem Bereitstellung und Umverteilung, Skalierung, VM-Regenerierung und laufende Upgrades auf der Basis von Kubernetes abwickeln lassen. Der volle Support für Application Runtime ist auch mit der Container Runtime verfügbar, so dass dieses Paar eine solide Wahl für Anwender ist, die sich auf das Feld der Containerentwicklung begeben wollen.

Zu Problemen kann es mit dem Ansatz von Cloud Foundry und sogar mit der Container-Runtime kommen, weil die langfristige Ausrichtung des Cloud-Foundry-Ökosystems unklar ist. Zurzeit ist es beispielsweise möglich, sowohl Service-Mesh- als auch Serverless-Fähigkeiten zu integrieren, aber wie dies weitergeführt werden soll, ist eine offene Frage.

Während Cloud Foundry auf Open-Source-Grundlagen beruht, ist sie auch Teil der Produktlinie von Pivotal, die sich als Multi-Cloud-Plattform positioniert, und viele Anwender erwerben das Produkt auch in dieser Form. Die Akquise von Pivotal durch VMware könnte deutliche Änderungen für Cloud Foundry mit sich bringen. Auf der einen Seite könnte es die Beziehungen zwischen Cloud Foundry, Pivotal Kubernetes Services und dem Kubernetes-Ökosystem von VMware stärken, vielleicht um CF Container Runtime zu ergänzen oder zu ersetzen.

Es ist auch denkbar, dass VMware weiter Kubernetes unterstützt – mit geringerer Betonung von Cloud Foundry. Zukünftige Anwender sollten die Beziehung zu VMware genau beobachten und alle Möglichkeiten abwägen, bevor sie sich für Cloud Foundry entscheiden.

VMware stellt sich mit Pivotal Container Service und vSphere Integrated Containers neu auf

VMware, das Unternehmen, das einst die ganze Virtualisierungsbewegung angestoßen hat, ist besser für seine VM-Technologie als für seine Container bekannt. Seine ursprüngliche Containerstrategie stützte sich auf die Photon-Plattform, eine Linux-Version, die für Container-Hosting optimiert ist. Photon ist noch immer ein Open-Source-Projekt. Jedoch steht derzeit die Zusammenarbeit von Pivotal und Google im Fokus der Containertechnologe von VMware.

Pivotal Container Service (PKS) ist wie so viele heute verfügbare Container-für Kubernetes entwickelt. PKS wurde in einer Partnerschaft mit Pivotal unabhängig von Pivotals eigener Cloud-Foundry-Software entwickelt. Die Akquise durch VMware wird ziemlich sicher die Position von VMware beim Containermanagement zugunsten von PKS-Elementen verändern verändern – das schlägt sich mitunter schon in der neuen Namensgebung nieder.

PKS läuft auch unter vSphere und wie vSphere Integrated Containers (VIC) besitzt es enge Verbindungen zum vSphere Software Defined Data Center Framework (SDDC), um das Management gemischter Umgebungen zu erleichtern. Sein vielleicht stärkstes Feature ist seine tiefe Integration in NSX-T, die softwaredefinierte Netzwerkarchitektur von VMware. Sie unterstützt die Konfiguration und Neukonfiguration von komplexen Anwendungen.

Zur Unüberschaubarkeit des Angebots trägt bei, dass VMware zudem VIC anbietet, eine integrierte Container-Engine, die hinsichtlich der Benutzeroberfläche und der APIs weitgehend kompatibel mit Docker ist. Die tiefe Verflechtung von VIC mit vSphere macht Container zu einem natürlicheren Teil der Welt von VMware, die von ihrer SDDC-Struktur bestimmt ist. SDDC ist eine Abstraktionsebene für die Infrastruktur und ermöglicht es, sowohl Container als auch virtuelle Maschinen auf derselben Infrastruktur zu hosten.

Die Auswahl von Tools für Containermanagement aus dem Angebot von VMware kann kompliziert sein. Zur Orientierung: VIC sollte man eher als Containererweiterung von vSphere betrachten, die primär für die Migration von Anwendungen im Rechenzentrum gedacht ist. Die meisten Unternehmen sind mit Platform Services Controller gut bedient, der für hybride und Multi-Cloud- oder Microservicebereitstellungen geeignet ist. VMware bietet auch Pivotal Cloud Foundry an, das oft für Cloud-native Entwicklung und den umfangreichen Einsatz von Microservices empfohlen wird.

Das VIC-Software-Bundle umfasst die Basissoftware (PKS, Integrated Container Engine) und dazu die Open-Source-Projekte von VMware – Harbor für den Support der Container Registry und Admiral, ein skalierbares Tool für Containermanagement. Zu PKS gehört hingegen Harbor, aber nicht Admiral.

Pivotal verkauft PKS in zwei Varianten, in der Regel für ein oder drei Jahre:

  • Core-based: Nutzer zahlen für die Anzahl der Cores, die für PKS verwendet werden.
  • Pod-based: Nutzer zahlen für die Anzahl der Pods, die auf den von PKS erzeugten Clustern laufen.

VIC ist für alle Enterprise-Plus-Kunden von vSphere 6.0 oder höher erhältlich und erfordert keine eigene Lizenz.

Kubernetes: Containerorchestrierung auf Basis von Open Source, im Bundle oder als Einzellösung

Kubernetes ist ein von Google entwickeltes Open-Source-Orchestrierungs-Tool der Cloud Native Computing Foundation, das Lifecycle-Management von Anwendungen in Containern erleichtert. Mittlerweile hat es sogar Docker als die am meisten verbreitete Software für Container überholt.

Unternehmen sind jedoch noch immer auf Container-Hosting (in der Regel Docker, eher selten CoreOS rkt) angewiesen, um Kubernetes zu verwenden. Kubernetes ist in der Regel mit einer grundlegenden Software für Container-Hosting gebündelt, so dass man im Idealfall Kubernetes als Ergänzung zur Containersoftware benutzt und es von derselben Quelle bezieht.

Kubernetes unterstützt besonders Cluster als Hosting Points, eine Abstraktionstechnik, mit der Unternehmen zuverlässig komplexe Anwendungen mit mehreren Komponenten bereitstellen können. Kubernetes stellt einen Online-Guide zur Verfügung, um das beste Tool für die Kubernetes Runtime zu finden. Die große Nützlichkeit von Kubernetes erklärt, warum es in den meisten Bundles von Containermanagementsoftware enthalten ist und warum es darüber hinaus proprietäre Komponenten von einigen Lieferanten gibt, darunter Amazon.

In jedem Fall ist es empfehlenswert, die Containersoftware und Kubernetes als Bundle zu beziehen, auch dann, wenn man mit Containern in hybriden oder Public-Cloud-Umgebungen arbeitet. Hat man keine Experten für Open-Source-Software in seinem IT-Team, sollte man darauf verzichten, Kubernetes direkt als offenen Source-Code zu kompilieren. Ist jedoch genau das der Plan, empfiehlt es sich, die Container-Hosting-Software aus der gleichen Umgebung zu kompilieren.

Kubernetes selbst ist Open Source, aber es ist die Basis von vielen kommerziellen Softwarepaketen für Containermanagement.

Anmerkung der Redaktion: Nach umfangreichen Recherchen konzentrieren sich die Herausgeber von ComputerWeekly.de in diesem Artikel auf Anbieter, die folgende Funktionalitäten anbieten: Orchestrierung, Containernetzwerke und hybride Cloud-Portabilität. Wir haben Anbieter vorgestellt, die entweder eine einzigartige Spitzentechnologie anbieten oder einen erheblichen Marktanteil oder in letzter Zeit die Aufmerksamkeit von Unternehmenskunden erregt haben. Unsere Recherchen basieren zudem auf Umfragen von Gartner und TechTarget.

Nächste Schritte

Anwendungsentwicklung mit Kubernetes

Absicherung von Containern, VMs und Workloads in der Cloud

Die Vor- und Nachteile von Containerbereitstellung und -Management

Erfahren Sie mehr über Containervirtualisierung

ComputerWeekly.de
Close