kalafoto - stock.adobe.com

Container verändern die Vorgehensweise beim Skalieren

Der vermehrte Einsatz von Container verändert, wie Unternehmen ihre Umgebungen skalieren. Horizontale Skalierung und Reaktionszeiten von APIs gewinnen dabei an Bedeutung.

Der Begriff Cloud-Skalierung wird oft mit unterschiedlichen Definitionen verwendet. So ist damit zu Marketingzwecken meist das Erweitern von Ressourcen gemeint, um noch größere Mengen an zu verarbeitenden Daten und Aufgaben zu unterstützen. Obwohl diese Beschreibung weder wissenschaftlich ist noch eine technologische Basis hat, steckt doch ein Stückchen Wahrheit darin.

Vertikale und horizontale Skalierung

So hat die Cloud, die heute zunehmend containerbasierte Strukturen nutzt, die Grundlage der Skalierbarkeit verändert. Dieser Wandel basiert auf den Unterschieden zwischen vertikalen und horizontalen Skalierungsstrategien.

Während der 2000er-Jahre war die Vorstellung weit verbreitet, dass vertikale Skalierung der beste Weg sei, um die benötigte Geschwindigkeit und Kapazität zu erreichen. Das bedeutete mehr Bandbreite, mehr Rechenleistung, mehr Speicher, mehr Anschlüsse, größere Dichte und schnellere Verarbeitung.

Doch mit dem Aufkommen des Cloud-Zeitalters verlagerte sich der Schwerpunkt auf die horizontale Skalierung. Unternehmen benötigen dafür zwar immer noch eine höhere Bandbreite sowie Rechen- und Verarbeitungsleistung, aber die Infrastrukturen hierfür lassen sich verteilen. So können Organisationen die zusätzlich benötigte Hardware auf einfache Weise aus mehreren Quellen zusammenstellen, statt sie als eine einzige, monolithische Einheit aufzubauen.

API-Geschwindigkeit ist entscheidend

Die Kurzlebigkeit von Containern beschleunigt diese Veränderung noch. Entsprechend hängt die Skalierung von der Steuerungsebene ab. Denn in einer Containerumgebung ist die Reaktionszeit der Serviceerkennung entscheidend für das korrekte Übermitteln von Anfragen an eine verfügbare Instanz. Die Geschwindigkeit, in der die Ressourcen bereitgestellt und wieder stillgelegt werden, hängt von der Geschwindigkeit der APIs ab. Sie ist somit inzwischen wichtiger als die des eigentlichen Load-Balancing-Services.

Laut dem Sysdig Container Usage Report 2019 haben mehr als die Hälfte der Container (54 Prozent) in den Umgebungen von Sysdig-Nutzern eine Lebensdauer von weniger als fünf Minuten:

  • 22 Prozent bis zu 10 Sekunden,
  • 17 Prozent von 10 Sekunden bis zu 1 Minute,
  • 15 Prozent von 1 Minute bis zu 5 Minuten.

Dabei umfasst beinahe die Hälfte (42 Prozent) zwischen 201 und 500 Containerinstanzen. Um Genauigkeit zu gewährleisten, aktualisiert die Steuerungsebene die Komponenten häufig. Die Frequenz ist höher als in der Cloud und sehr viel höher als bei monolithischen Anwendungen.

Lori MacVittie, F5 Networks

„Die Geschwindigkeit, in der die Ressourcen bereitgestellt und wieder stillgelegt werden, hängt von der Geschwindigkeit der APIs ab. Sie ist somit inzwischen wichtiger als die des eigentlichen Load-Balancing-Services.

Lori MacVittie, F5 Networks

Die Aktualisierungsgeschwindigkeit des Eingangs-Controllers für das Erkennen freier Ressourcen für den Load-Balancer wird dadurch zu einem entscheidenden Faktor. Denn wenn die Angaben nicht aktuell sind, könnte eine Nutzeranfrage an eine Ressource weitergeleitet werden, die nicht mehr existiert – oder nicht mehr frei ist, weil sie inzwischen einen völlig anderen Dienst hostet.

In beiden Fällen verlängert sich die Reaktionszeit durch den Fehler und das anschließende Umleiten der Anfrage. Der Anwender muss entsprechend länger auf eine Antwort warten und die Servicequalität aus Sicht des Nutzers leidet.

Fazit

Die Skalierung der Steuerungsebene stellt somit die größte Herausforderung bei der Skalierung von Containerumgebungen dar. Dazu gehören auch das Design von APIs sowie der Mechanismus, mit dem Anfragen und Aktualisierungen der APIs authentifiziert und autorisiert werden. So ist eine robuste, skalierbare Steuerungsebene nicht mehr nur wünschenswert, sondern eine entscheidende Voraussetzung für den Erfolg.

Über den Autor:
Lori MacVittie ist Principal Technical Evangelist im Büro des CTO von F5 Networks. Ihr Schwerpunkt sind neu entstehende Architekturen und Technologien wie Cloud und Edge Computing, Netzwerkautomatisierung und -orchestrierung, Microservices und Container. MacVittie ist bereits seit über 25 Jahren in der Branche tätig. Bevor sie zu F5 kam, war sie eine preisgekrönte Tech-Redakteurin beim Network Computing Magazine. Sie hat einen M.S. in Informatik von der Nova Southeastern Universität. Darüber hinaus ist sie Mitglied des Leitungsrats für das DevOps Institut und CloudNOW und wurde zu einer der einflussreichsten Frauen in DevOps ernannt.

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

Fortsetzung des Inhalts unten

Erfahren Sie mehr über Containervirtualisierung

ComputerWeekly.de

Close