vladimircaribb - Fotolia

Data Center der Zukunft: Dell entwirft neue Architektur

Trotz Megatrend Cloud Computing: lokale Rechenzentren wird es noch viele Jahre geben. Allerdings mit neuen Aufgaben, Systemen und Architekturen, wie Dell zeigt.

Michael Dell liebt Hardware. Ob PCs, Server oder Storage – immer standen bei seinen Unternehmensstrategien Produkte zum Anfassen im Vordergrund. Daran hat sich bis heute kaum etwas geändert.

Auf der jüngsten Kundenveranstaltung brachte er es medienwirksam auf den Punkt: „Künstliche Intelligenz läuft nicht auf Software und Software läuft ebenfalls nicht auf Software. Das Arbeitspferd ist und bleibt die Hardware.“ Damit meinte er nicht die Bare-Metal- oder PaaS-Angebote der Cloud-Provider, sondern in erster Linie die hauseigenen Rechenzentren seiner Kunden.

Back to the IT-Roots

Laut Dells Hardwarechef Jeff Clarke werden eigene Rechenzentren ohnehin immer wichtiger: „Wir sehen einen deutlichen Trend, dass immer mehr Anwendungen von der Cloud zurück ins eigene Data Center geholt werden.“

Die Ursachen dafür sind aber nicht die früheren Bedenken, wie Sicherheit oder Datenschutz, sondern neue Anforderungen an die gesamte hausinterne IT. So stellen künstliche Intelligenz (KI), Machine Learning (ML) und das Internet der Dinge (Internet of Things, IoT) in puncto Latenz und Flexibilität hohe Anforderungen. Deren Sensoren und Komponenten müssen also zunächst an ein internes Rechenzentrum angebunden werden, bevor sich die anfallenden Daten für zeitunkritischere Auswertung in die Cloud verschieben lassen.

Edge Computing, intelligente IoT-Controller, Microservices und die neue Generation an Thin Clients können mit den althergebrachten IT-Strukturen nicht optimal genutzt werden“, bestätigt Gartner-Analyst Santosh Rao diesen Trend.

Kinetic: Neue Architektur für ein modulares Rechenzentrum

Dells Lösung basiert auf drei Säulen: aufgabenspezifische Server, schnelles NVMe-basiertes Storage und eine hohe Modularität beziehungsweise Flexibilität. Das übergreifende Verbindungselement ist die neue Kinetic-Architektur, die zum Jahresende verfügbar sein soll. Dabei handelt es sich um eine modulare IT-Infrastruktur – ähnlich HPE Synergy.

Kinetic soll den schnellen und vor allem serverübergreifenden Zugriff auf Daten und Geräte anderer Server ermöglichen. Diese anderen Geräte können beispielsweise Field Programmable Gate Arrays (FPGAs) oder leistungsfähige Grafikprozessoren sein. Kinetic soll den Weg zum modularen Rechenzentrum ebnen, bei dem die Data-Center-Ressourcen nicht länger starr mit ihren Servern verknüpft sind. Ziel ist es, vor allem andere Knoten der IT-Infrastruktur genauso nutzen zu können.

Neue Serverarchitektur

Dazu gehört dann konsequenterweise auch eine neue Serverarchitektur. „Das bisherige Konzept von General-Purpose-Servern, die für eine Vielzahl an unterschiedlichen Anwendungen genutzt werden, ist überholt, denn damit lässt sich nicht mehr die Performance erreichen, die für KI, ML und IoT erforderlich ist“, begründet Clarke die Neuausrichtung des Produktportfolios.

Das erste greifbare Produkt ist PowerEdge MX, dass zum Jahresende verfügbar ist. Bis dahin muss man sich mit der Übergangslösung, PowerEdge 940xa, zufriedengeben. Das System verfügt über bis zu vier Intel Xeon Prozessoren (Skylake) und einer jeweils gleichen Anzahl an GPUs. Es kann bis zu 24 NVMe-Laufwerke sowie weitere FPGAs aufnehmen.

Neues Storage

Im Bereich Storage bietet Dell jetzt mit PowerMax erstmals eine komplett für NVMe und NVMe over Fabrics (NVMe-oF) ausgelegte Storage-Lösung an. Das System verfügt über Storage Class Memory, bei dem SSDs eine nahezu ähnlich niedrige Latenz wie der Hauptspeicher aufweisen. Das System soll bis zu zehn Millionen IOPS erreichen, was einer um 50 Prozent besseren Response-Zeit entspricht.

Doch das besondere sind hierbei nicht die State-of-the-Art-Hardwarekomponenten, sondern das neue SAN-Betriebssystem PowerMaxOS. Es unterstützt eine Reihe KI-Funktionen, wie Machine Learning, Pattern Recognition und Predictive Analytics, und fügt sich damit in moderne Realtime- und Streaming Analytics ein.

Die Cloud wird Teil des Netzwerks

Trotz dieser neuen anwendungsorientierten Neuausrichtung des hausinternen Rechenzentrums weiß man bei Dell natürlich auch, dass die IT-Zukunft hybrid ist, wobei die Anwendungen zwischen Cloud und lokalem Rechenzentrum aufgeteilt sind. Mit VMWare als Tochtergesellschaft kann man eine Reihe an Management-Tools zur Orchestrierung dieser Aufgaben anbieten.

Neben den klassischen NSX-Netzwerkkomponenten hat man diese virtuelle Netzwerk-Topologie auf das Managen von Multi-Cloud-Umgebungen ausgerichtet. Wobei auch die eigenen Rechenzentren einbezogen sind. Das heißt, mit NSX Hybrid Cloud wird dem Administrator die gesamte IT-Infrastruktur präsentiert – egal, wo und bei wem sich die einzelnen Teile befinden.

Modernes Konzept, aber nicht bahnbrechend

Dell verfolgt einen modernen, anwendungsorientierten Ansatz. Dabei werden die neuen IT-Anforderungen, wie Multi-Cloud, Container und Microservices unterstützt.

Doch im Kern bleibt die herkömmliche Architektur von Server, Storage, Netzwerk plus Cloud-Anbindung unverändert. Sie wird jetzt nur modularer. Bahnbrechende neue Basistechnologien, wie die auf Memristoren basierende The Machine von HPE oder die Entflechtung von Storage und CPU, so wie es im Open Compute Project verfolgt wird, sind bislang nicht erkennbar.

Folgen Sie SearchDataCenter.de auch auf Twitter, Google+, Xing und Facebook!

Nächste Schritte

Dell EMC macht 14. Generation der PowerEdge-Server verfügbar.

Praxistest: Dell EMC Data Domain Virtual Edition.

Dell-Switches für kleinere und größere Enterprise-Netzwerke.

Erfahren Sie mehr über Data-Center-Infrastruktur

ComputerWeekly.de
Close