Dezentrale Micro Data Center verbessern Performance und Verfügbarkeit

Dezentrale Micro Data Center erhöhen Performance und Verfügbarkeit. Für kleinere Unternehmen bietet sich Colocation als Alternative an.

Dezentralisierte Data Center können die Anwendungsperformance und Systemverfügbarkeit durch die kurze Entfernungen zwischen Nutzern und Ressourcen deutlich verbessern. Die Diskussion darüber, ob man IT-Ressourcen zentralisieren oder auf Micro Data Center verteilen sollte, ist dabei nicht neu und wird wohl auch in absehbarer Zeit nicht enden.

Viele größere Unternehmen ziehen ihre verteilten Rechenzentren in ein einziges oder weniger zentralisiertes Data Center zusammen, allerdings bietet eine verteilte Datenhaltung bessere Performanz, höhere Verfügbarkeit und geringere Kosten.

Unternehmen entscheiden sich für dieses sogenannte Edge-Computing (wörtlich in etwa „Um-die-Ecke-Computing“) – mit kleineren Datacentern in der Nähe der sie nutzenden Endanwender – zumeist aus Performance-Gründen. Angestellte und Kunden eines Unternehmens sind oftmals an ganz unterschiedlichen geografischen Orten anzutreffen, benötigen aber alle schnellen Zugriff auf die sie interessierenden Daten. 

Wird die Information in örtlicher Nähe des Nutzers gespeichert, so erfolgt auch ihre Auslieferung schneller. Als Beispiel denke man nur an einen fiktiven Einzelhändler mit Online-Shop, der seine Webseite näher an seinen Kunden in den USA, Russland oder Brasilien betreiben möchte.

Informationen mit größerem Bandbreitenbedarf, wie etwa Streaming-Inhalte, medizinische Aufnahmen oder komplexe architektonische Diagramme, können die Antwortzeit eines Netzwerks in die Knie zwingen und somit die Produktivität reduzieren. Derartige Daten näher an den Nutzer zu bringen kann eine Lösung für diese Probleme darstellen. So könnte etwa ein Unternehmen, das sich mit dem Rendern von Simulationen beschäftigt, Data Center jeweils nahe an seinen Zweigstellen betreiben, um wertvolle, bandbreitenintensive Daten vor Ort statt in der Firmenzentrale vorzuhalten.

Data-Center-Infrastruktur wird kleiner und modular

Micro-Data-Center in der Größe eines Racks füllen eine Nische: Sie bedienen Zweigstellen, mobile Bereitstellungen oder vorübergehende IT-Kapazitätsanforderungen von Militär und Katastrophenschutz.

Viele Unternehmen waren in der Vergangenheit zögerlich, solche neuen und ungewöhnlichen IT-Systeme in kleineren Gebäuden oder gar unter freiem Himmel zu installieren, und bevorzugten die typischen, riesigen, großräumigen und eng überwachten Data Center. Doch einige Anbieter wechseln schon heute das Systemdesign, um mehr Nutzer anzuziehen.

Im Markt der Data-Center-Server konkurrieren die Anbieter inzwischen darum, immer kleiner und mobiler zu werden. Etablierte Anbieter wie Dell, HP und IBM entwickeln kleinere, schlankere und mobilere Datenserver. Einige Anbieter – etwa Huawei, Schneider Electric oder auch Rittal – treiben den Trend sogar mit autarken Micro Data Centern auf die Spitze.

Colocation als Micro-Data-Center für kleinere Unternehmen

Auch der Online-Pionier AOL hat sich inzwischen dem Edge-Computing verschrieben. Nach der Übernahme weitreichenstarker Content-Seiten wie Huffington Post, Engadget und Patch braucht das Unternehmen ein flexibles Netzwerk von Data Centern, das bei einem sprunghaften Anstieg der Seitenzugriffe rasch zusätzliche Serverkapazität bereitstellen kann.

Das Unternehmen nutzt dafür Micro-Data-Center in Rack-Größe, um die IT-Infrastruktur von einem riesigen zentralisierten System in eine Infrastruktur aus kleinen Standorten ohne IT-Personal und Fernwartung zu verwandeln. Die neuen, höchst kompakten Standorte beherbergen Server mit tausenden virtuellen Maschinen, die die Grundlage für AOLs Content Distribution Network (CDN) darstellen, und die das schnelle skalieren zusätzlicher IT-Kapazität ermöglichen.

Für traditionelle Unternehmen, die auf der Suche nach demselben dezentralen, flexiblen Data-Center-Backend wie der IT-Riese AOL sind, wäre die Bereitstellung eigener Hardware bei einem Colocation-Anbieter ein vergleichbarer Ansatz. Bei Colocation, dem Betreiben eigener Hardware in Drittanbieter-Rechenzentren, überwachen in der Regel die Angestellten des Drittanbieters die Infrastruktur, bei ganz unterschiedlichen Möglichkeiten zur Fernwartung und -administration. Bei einem eigenen Micro Data Center steht demgegenüber natürlich das Unternehmen selbst in der Pflicht.

Micro Data Center vs. zentralisierte Rechenzentren

Vor allem wirtschaftliche Erwägungen motivieren zu einem Umzug in externe Data Center. Unternehmen horten heute hunderte bis tausende Server, bei denen Einsparpotenzial vor allem durch Mengenrabatte und den zentralisierten Betrieb realisiert werden. Mit dem Wachstum eines Data Centers steigt auch die Komplexität der Systemverbindungen untereinander. Während Hardwarekosten beständig sinken, ist bei den Nebenkosten für den Betrieb eines Datacenters eine Steigerung festzustellen.

Größere, noch komplexere Rechenzentren benötigen auch ausgeklügelte und damit kostenintensivere Verwaltungs- und Problemlösungswerkzeuge. Sie nehmen zudem mehr physischen Platz in Anspruch, womit auch die Immobilienkosten ansteigen. 

Auf der anderen Seite verursacht die Verteilung der IT-Infrastruktur auf viele Standorte ihrerseits Herausforderungen bei deren Verwaltung, da Unternehmen die gesamte Infrastruktur nachverfolgen und untereinander verbinden müssen. Mit der steigenden Anzahl verteilter Standorte multipliziert sich damit auch der Aufwand für das Suchen und Finden möglicher Problemursachen.

Downtime, also die Ausfallzeit der Infrastruktur, ist ein weiterer Treiber der Entwicklung hin zu dezentralisierten Systemen. Viele Unternehmen können es sich nicht mehr leisten, offline zu sein. Ein zentralisiertes Data Center strahlt jedoch auch singuläre Probleme in sämtliche Standorte ab, selbst unter Verwendung redundanter Systeme in den Racks, redundanter Stromversorgung für das Gebäude und weiteren standortspezifischen Sicherheitsmaßnahmen. Geht das Hauptsystem vom Netz, so steht das gesamte Geschäft still.

Viel zu oft verwenden Unternehmen rudimentäre Systeme für Backup und Recovery: Sie verwenden ein Hauptsystem und halten parallel vor Ort ein Backup-System für Ausfallszenarien bereit. Extreme Wetterbedingungen oder vergleichbare Umstände betreffen dann jedoch sowohl das Haupt- wie auch das Backup-System.

Verteilte Data-Center-Standorte gewähren hier eine höhere Zuverlässigkeit, da Hauptaufgaben an mehreren Standorten abgearbeitet werden können statt nur an einem Ort. Die Virtualisierung der Infrastruktur spielt vor allem bei der Reaktionsfähigkeit auf unvorhersehbare Probleme eine Schlüsselrolle. 

IT-Organisationen können dabei einen virtualisierten Workload eines ausgefallenen Servers auf einen beliebigen anderen Server an externen Standorten verlagern. Eine Panne bei einem System verhindert in diesem Fall die Abarbeitung des Workloads nicht mehr. Schadhafte Systeme werden isoliert und ohne Downtime des Gesamtsystems repariert.

Der häufigste Grund eines ungeplanten Data-Center-Ausfalls liegt laut Ponemon Institute in einem Versagen der unterbrechungsfreien Stromversorgungen (USV). Je größer und komplexer ein zentrales System wird, desto anfälliger ist es auch für Probleme. Kleine, verteilte Data Center dagegen sind von solchen Ereignissen seltener betroffen.

Nach einer Untersuchung des Marktforschers IDC aus dem Jahre 2012 verursachen Server über ihre Lebensdauer hinweg mehr Energie- als Anschaffungskosten. Vor allem große, zentralisierte Rechenzentren können durchaus in der Lage sein, die Kapazitäten des öffentlichen Stromversorgungsnetzes kleiner Gemeinden zu überschreiten. Verteilte Data Center hingegen belasten das Stromnetz kaum, da die Gesamtenergie auf mehrere Standorte verteilt wird.

Ein großes Rechenzentrum kann zumindest in den USA sogar die örtliche Wasserversorgung in Bedrängnis bringen: In Pineville beispielsweise musste Apple in Zusammenarbeit mit der Stadtverwaltung eine eigene Grundwasserzapfstelle errichten, um über ausreichende Wassermengen für die Kühlung seines gut 45.000 Quadratmeter großen Rechenzentrums zu verfügen. Auch externe Standorte benötigen natürlich Kühlwasser, allerdings ist der Bedarf pro Standort dann wesentlich geringer.

Folgen Sie SearchDataCenter.de auch auf Twitter, Google+ und Facebook!

Artikel wurde zuletzt im März 2015 aktualisiert

Erfahren Sie mehr über Data-Center-Infrastruktur

- GOOGLE-ANZEIGEN

ComputerWeekly.de

Close