Definition

Data Center (Rechenzentrum)

Ein Rechenzentrum (oder Data Center) ist eine Einrichtung, die aus vernetzten Computern und Storage besteht, die von Unternehmen und anderen Institutionen zur Organisation, Verarbeitung, Speicherung und Verbreitung großer Datenmengen genutzt werden. Ein Unternehmen verlässt sich in der Regel in hohem Maße auf die Anwendungen, Dienste und Daten, die in einem Rechenzentrum enthalten sind, und macht es so zu einem zentralen Punkt und einer wichtigen Ressource für den täglichen Betrieb.

Funktionsweise von Rechenzentren

Rechenzentren sind kein einzelnes Objekt, sondern vielmehr ein Konglomerat von Elementen. Zumindest dienen Rechenzentren als Hauptaufbewahrungsort für alle Arten von IT-Geräten, darunter Server, Speichersubsysteme, Netzwerk-Switches, Router und Firewalls sowie die Verkabelung und die physischen Racks, die zur Organisation und Verbindung der IT-Geräte dienen. Ein Rechenzentrum muss auch über eine angemessene Infrastruktur verfügen, zum Beispiel Stromverteilungs- und Zusatzstrom-Subsysteme. Dazu gehören auch elektrische Switches, unterbrechungsfreie Stromversorgungen, Notstromaggregate, Belüftungs- und Kühlsysteme für das Rechenzentrum, wie Kühlkonfigurationen in den Reihen und Klimaanlagen für die Computerräume, sowie eine angemessene Versorgung mit Netzbetreibern (Telco). All dies erfordert eine physische Einrichtung mit physischer Sicherheit und einer ausreichenden Fläche, um die gesamte Infrastruktur und Ausrüstung unterzubringen.

Was ist eine Rechenzentrumskonsolidierung?

Sich nur auf ein einziges Rechenzentrum zu verlassen, ist nicht erforderlich, und moderne Unternehmen können zwei oder mehr Rechenzentren an mehreren Standorten nutzen, um die Ausfallsicherheit und die Anwendungsleistung zu verbessern und die Latenzzeiten zu verringern, indem sie die Arbeitslasten näher an den Benutzern platzieren.

Umgekehrt kann sich ein Unternehmen mit mehreren Rechenzentren für die Konsolidierung von Rechenzentren entscheiden und die Anzahl der Standorte reduzieren, um die Kosten für den IT-Betrieb zu minimieren. Die Konsolidierung erfolgt in der Regel bei Fusionen und Übernahmen, wenn das Hauptunternehmen die Rechenzentren des untergeordneten Unternehmens nicht benötigt.

Was ist Colocation von Rechenzentren?

Betreiber von Rechenzentren können auch eine Gebühr für die Anmietung von Serverplatz in einer Colocation-Einrichtung entrichten. Colocation ist eine attraktive Option für Unternehmen, die die hohen Investitionskosten vermeiden wollen, die mit dem Bau und der Wartung eigener Rechenzentren verbunden sind. Heutzutage erweitern Colocation-Anbieter ihr Angebot um verwaltete Dienste, wie Interkonnektivität, die es Kunden ermöglicht, sich mit der öffentlichen Cloud zu verbinden.

Da viele Anbieter heute neben ihren Colocation-Einrichtungen auch Managed Services anbieten, wird die Definition von Managed Services unscharf, da alle Anbieter den Begriff auf leicht unterschiedliche Weise vermarkten. Eine wichtige Unterscheidung ist die folgende:

  • Colocation - Das Unternehmen bezahlt einen Anbieter für die Unterbringung seiner Hardware in einer Einrichtung. Der Kunde zahlt nur für den Raum.
  • Managed Services - Das Unternehmen bezahlt einen Anbieter für die aktive Wartung oder Überwachung der Hardware, sei es durch Leistungsberichte, Verbindungsmöglichkeiten, technischen Support oder Disaster Recovery.

Rechenzentrumsebenen

Rechenzentren sind nicht durch ihre physische Größe oder ihren Stil definiert. Kleine Unternehmen können erfolgreich mit mehreren Servern und Speicher-Arrays arbeiten, die in einem praktischen Schrank oder einem kleinen Raum vernetzt sind, während große Computerunternehmen wie Facebook, Amazon oder Google ein großes Gebäude oder einen Gebäudeteil mit Rechenzentrumsausrüstung und -infrastruktur füllen können. In anderen Fällen können Rechenzentren in mobilen Installationen, beispielsweise in Schiffscontainern, auch bekannt als „Data Center in a Box“, aufgebaut werden, die je nach Bedarf bewegt und eingesetzt werden können.

Rechenzentren können jedoch durch verschiedene Zuverlässigkeits- oder Ausfallsicherheitsstufen definiert werden, die manchmal auch als Rechenzentrumsstufen (oder Tiers) bezeichnet werden. Im Jahr 2005 veröffentlichten das American National Standards Institute (ANSI) und die Telecommunications Industry Association (TIA) die Norm ANSI/TIA-942, „Telecommunications Infrastructure Standard for Data Centers“, in der vier Stufen von Richtlinien für die Konzeption und Implementierung von Rechenzentren definiert wurden. Jede nachfolgende Stufe soll eine höhere Widerstandsfähigkeit, Sicherheit und Zuverlässigkeit als die vorherige Stufe bieten. So ist ein Tier-1-Rechenzentrum kaum mehr als ein Serverraum, während ein Tier-4-Rechenzentrum redundante Subsysteme und hohe Sicherheit bietet.

Architektur und Design von Rechenzentren

Obwohl fast jeder geeignete Raum als Rechenzentrum dienen könnte, erfordern die bewusste Planung und Implementierung eines Rechenzentrums sorgfältige Überlegungen. Abgesehen von den grundlegenden Fragen der Kosten und Steuern werden Standorte nach einer Vielzahl von Kriterien ausgewählt, wie geografische Lage, seismische und meteorologische Stabilität, Zugang zu Straßen und Flughäfen, Verfügbarkeit von Energie und Telekommunikation und sogar das vorherrschende politische Umfeld.

Sobald ein Standort identifiziert ist, kann die Architektur des Rechenzentrums unter Berücksichtigung der mechanischen und elektrischen Infrastruktur sowie der Zusammensetzung und Anordnung der IT-Ausrüstung entworfen werden. All diese Aspekte richten sich nach den Verfügbarkeits- und Effizienzzielen der gewünschten Rechenzentrumsebene.

Energieverbrauch und Effizienz

Bei der Planung von Rechenzentren wird auch die Bedeutung der Energieeffizienz berücksichtigt. Ein einfaches Rechenzentrum braucht vielleicht nur ein paar Kilowatt Energie, aber eine Rechenzentrumsinstallation im Unternehmensmaßstab kann Dutzende von Megawatt oder mehr benötigen. Heutzutage erfreuen sich „grüne“ Rechenzentren, die durch den Einsatz von emissionsarmen Baumaterialien, Katalysatoren und alternativen Energietechnologien auf minimale Umweltbelastung ausgelegt sind, zunehmender Beliebtheit.

Rechenzentren können ihre Effizienz auch durch ihre räumliche Anordnung maximieren, indem sie eine Methode anwenden, die als „Hot Aisle/Cold Aisle“-Layout bekannt ist („heiße Reihe/kalte Reihe). Dabei werden die Serverschränke in abwechselnden Reihen aufgestellt, wobei die Kaltlufteinlässe in die eine und die Warmluftauslässe in die andere Richtung zeigen. Das Ergebnis sind abwechselnd heiße und kalte Gänge, wobei die Abluft einen heißen Gang und die Zuluft einen kalten Gang bildet. Die Abluftkanäle sind auf die Klimageräte ausgerichtet. Die Geräte sind häufig zwischen den Serverschränken in der Reihe oder im Gang platziert und leiten die kalte Luft zurück in den kalten Gang. Diese Konfiguration der Klimageräte wird als Reihenkühlung bezeichnet.

Unternehmen messen die Energieeffizienz von Rechenzentren häufig anhand einer Kennzahl, die als Power Usage Effectiveness (PUE) bezeichnet wird und das Verhältnis zwischen der gesamten in das Rechenzentrum eingehenden Energie und der von den IT-Geräten verbrauchten Energie darstellt. Die zunehmende Virtualisierung hat jedoch eine wesentlich produktivere Nutzung der IT-Ausrüstung ermöglicht, was zu einer wesentlich höheren Effizienz, einem geringeren Energieverbrauch und einer Senkung der Energiekosten geführt hat. Metriken wie PUE sind nicht mehr von zentraler Bedeutung für die Ziele der Energieeffizienz, aber Unternehmen können immer noch PUE messen und umfassende Energie- und Kühlungsanalysen nutzen, um die Energieeffizienz besser zu verstehen und zu verwalten.

Sicherheit und Schutz von Rechenzentren

Bei der Planung von Rechenzentren müssen auch solide Sicherheitsvorkehrungen getroffen werden. Die Sicherheit spiegelt sich zum Beispiel oft in der Anordnung der Türen und Zugangskorridore wider, die den Transport großer, unhandlicher IT-Geräte ermöglichen und den Mitarbeitern den Zugang zur Infrastruktur und deren Reparatur erlauben müssen.

Der Brandschutz ist ein weiterer wichtiger Sicherheitsbereich, und der umfangreiche Einsatz empfindlicher, hochenergetischer elektrischer und elektronischer Geräte schließt herkömmliche Sprinkleranlagen aus. Stattdessen werden in Rechenzentren häufig umweltfreundliche chemische Brandbekämpfungssysteme eingesetzt, die einem Feuer effektiv den Sauerstoff entziehen und gleichzeitig die Kollateralschäden an den Geräten begrenzen. Da das Rechenzentrum auch ein zentrales Wirtschaftsgut ist, tragen umfassende Sicherheitsmaßnahmen wie Zugangsberechtigung und Videoüberwachung dazu bei, Fehlverhalten von Mitarbeitern, Auftragnehmern und Eindringlingen zu erkennen und zu verhindern.

Verwaltung und Überwachung der Rechenzentrumsinfrastruktur

Moderne Rechenzentren setzen in großem Umfang Überwachungs- und Verwaltungssoftware ein. Software, die Tools für die Verwaltung der Rechenzentrumsinfrastruktur enthält, ermöglicht es IT-Administratoren, die Anlage und die Geräte zu überwachen, die Leistung zu messen, Fehler zu erkennen und eine Vielzahl von Korrekturmaßnahmen durchzuführen, ohne den Raum des Rechenzentrums jemals betreten zu müssen.

Das Wachstum der Virtualisierung hat dem Management der Rechenzentrumsinfrastruktur eine weitere wichtige Dimension hinzugefügt. Die Virtualisierung unterstützt jetzt die Abstraktion von Servern, Netzwerken und Speicher, so dass jede Rechenressource in Pools organisiert werden kann, ohne dass ihr physischer Standort eine Rolle spielt. Administratoren können so Workloads, Speicherinstanzen und sogar Netzwerkkonfigurationen aus diesen gemeinsamen Ressourcenpools bereitstellen. Wenn Administratoren diese Ressourcen nicht mehr benötigen, können sie sie zur Wiederverwendung in den Pool zurückgeben. Alle Aktionen, die Netzwerk-, Speicher- und Servervirtualisierungausführen, können durch Software implementiert werden, was dem Begriff Software-definiertes Rechenzentrum (SDDC) seine Berechtigung verleiht.

Rechenzentrum vs. Cloud

Rechenzentren implementieren zunehmend Cloud-Software, die auf der Virtualisierung aufbaut, um die Verwaltung des Rechenzentrums zu automatisieren, den Nutzern Selbstbedienung zu ermöglichen und die Abrechnung zu vereinfachen. Ziel ist es, einzelnen Benutzern die Möglichkeit zu geben, Arbeitslasten und andere Rechenressourcen bei Bedarf ohne Eingreifen der IT-Administration bereitzustellen.

Auch die Anbindung von Rechenzentren an Public-Cloud-Anbieter wird zunehmend möglich. Plattformen wie Microsoft Azure legen den Schwerpunkt auf die hybride Nutzung lokaler Rechenzentren mit Azure oder anderen öffentlichen Cloud-Ressourcen. Das Ergebnis ist nicht die Abschaffung von Rechenzentren, sondern die Schaffung einer dynamischen Umgebung, die es Unternehmen ermöglicht, Arbeitslasten lokal oder in der Cloud auszuführen oder diese Instanzen je nach Bedarf in die oder aus der Cloud zu verschieben.

Geschichte

Die Ursprünge der ersten Rechenzentren lassen sich bis in die 1940er Jahre und die Existenz früher Computersysteme wie des Electronic Numerical Integrator and Computer (ENIAC) zurückverfolgen. Diese frühen Maschinen waren kompliziert zu warten und zu betreiben und verfügten über eine Vielzahl von Kabeln, die alle notwendigen Komponenten miteinander verbanden. Sie wurden auch vom Militär genutzt, was bedeutete, dass spezielle Computerräume mit Racks, Kabelkanälen, Kühlmechanismen und Zugangsbeschränkungen erforderlich waren, um die gesamte Ausrüstung unterzubringen und die entsprechenden Sicherheitsmaßnahmen zu treffen.

Doch erst in den 1990er Jahren, als der IT-Betrieb immer komplexer wurde und preiswerte Netzwerkgeräte zur Verfügung standen, wurde der Begriff Rechenzentrum erstmals verwendet. Es wurde möglich, alle notwendigen Server eines Unternehmens in einem Raum innerhalb des Unternehmens unterzubringen. Diese speziellen Computerräume wurden in den Unternehmen als Rechenzentren bezeichnet, und der Begriff setzte sich durch.

Zur Zeit der Dot-Com-Blase in den späten neunziger Jahren erforderte der Bedarf an Internetgeschwindigkeit und ständiger Internetpräsenz für Unternehmen größere Einrichtungen, um die benötigte Menge an Netzwerkausrüstung unterzubringen. Zu diesem Zeitpunkt wurden Rechenzentren populär und begannen, den oben beschriebenen zu ähneln.

Im Laufe der Geschichte der Datenverarbeitung wurden die Computer immer kleiner und die Netzwerke immer größer, und das Rechenzentrum hat sich weiterentwickelt und an die jeweils erforderliche Technologie angepasst. Rechenzentren bestehen oft nicht mehr nur aus einem Standort, sondern nutzten zunehmend Cloud-Ressourcen, um Skalierbarkeit bei überschaubaren Kosten umzusetzen.

Diese Definition wurde zuletzt im Oktober 2021 aktualisiert

Erfahren Sie mehr über Data-Center-Infrastruktur

ComputerWeekly.de
Close