3dmentat - Fotolia

Single-Socket-Server bieten Kosten- und Leistungsvorteile

Single- und Dual-Socket-Server haben verschiedene Auswirkungen auf Verarbeitungsgeschwindigkeit, Memory-Verfügbarkeit und Gesamtkosten. Wir erklären die Unterschiede im Detail.

Für bestimmte Rechenzentren stellen Single-Socket-Server eine wirtschaftlichere, bedarfsgerechte Alternative zu den etablierten Dual-Socket-Servern dar. Unabhängig von ihrer Größe sparen immer mehr Unternehmen Kosten ein, indem sie von Dual-Socket-Systemen mit acht bis 12 Kernen pro Sockel bei gleichem Leistungsniveau auf 24-Core-Single-Socket-Server wechseln.

In vielen Fällen stellen IT-Abteilungen fest, dass sie auch mit einem Sockel über eine ausreichende Anzahl Cores verfügen, um selbst Anforderungen von rechenintensiven Technologien wie IoT (Internet der Dinge, Internet of Things) und KI (Künstliche Intelligenz) zu erfüllen.

Zusätzlich zu den verbesserten Konfigurationsmöglichkeiten und der effizienteren Energienutzung pro Rack erzielen Unternehmen zusätzlich niedrigere Betriebskosten durch eine günstigere Softwarelizenzierung auf Sockelbasis. Eine Untersuchung von Gartner hat gezeigt, dass sowohl bei Software mit Core-Lizenz wie VMware vSAN als auch bei Windows-Anwendungen erhebliche Kosteneinsparungen erzielt werden können.

Das sich entwickelnde Rechenzentrum

Dual-Socket-Server sind eine Grundsäule von Rechenzentren. Multicore-CPUs, die erstmals Mitte der 2000er Jahre auf den Markt kamen, haben Dual-Socket als Standard weiter gestärkt. Mittlerweile sind 28- und 32-Core-CPUs für Spezialanwendungen keine Seltenheit mehr.

Eine höhere Zahl an CPU-Kernen und Multithreading haben den Aufbau von Scale-Out-Systemen ermöglicht und das Diversifizieren von Anwendungen für Endbenutzer und Anwender gefördert.

Dual-Socket-Server sind mit einigen Einschränkungen behaftet. Wollen Unternehmen die Leistung ausbauen, führt der Einsatz von Non Uniform Memory Access (NUMA) zwischen zwei Sockeln oft zu Engpässen, da Multicores auf jedem Sockel versuchen, Ressourcen wie Arbeitsspeicher und Input/Output (I/O, Eingang/Ausgang, E/A) über die NUMA-Verbindung gemeinsam zu nutzen. In älteren Rechenzentren erbringen Dual-Socket-Server außerdem wegen der ineffizienten CPU-Ressourcennutzung viel weniger Leistung, als sie eigentlich könnten.

Diese mangelnde Effizienz ist zum Teil auf die Kapazitäten neuerer CPUs sowie auf die Inkompatibilität mit jüngerer Technologie zurückzuführen, einschließlich der erweiterten PCIe-Lanes für moderne Netzwerke und deutlich mehr verfügbarem RAM. Leistungsstarke Dual-Socket-Server erhöhen auch die Rack-Leistungsdichte und sind oft der Grund, wieso in Unternehmen Platz in Racks frei bleibt oder wieso sich an einzelnen Punkten eine übermäßige Wärmeentwicklung einstellt (sogenannte Hotspots).

Letztlich steigt die Leistung von neuen Prozessoren auf dem Markt nicht mehr so stark an wie früher; sie werden immer kleiner – nicht unbedingt schneller. Das hat dazu beigetragen, das Interesse an Single-Socket-Servern zu steigern.

Single- versus Dual-Socket: Vorteile

Organisationen kaufen regelmäßig zu viel Rechenleistung in Form von Dual-Socket-Servern, weil sie die Core- und Speicheranforderungen für neuere Anwendungsfälle und Workloads erfüllen möchten. Dieses Modell führt regelmäßig zu unzureichend ausgelasteten Kapazitäten und einem Missverhältnis zwischen dem Ressourcenbedarf datenintensiver Anwendungsfälle, wie zum Beispiel Virtual Reality oder maschinellem Lernen und dem Rechenzentrums-Infrastrukturdesign.

Letztlich steigt die Leistung von neuen Prozessoren auf dem Markt nicht mehr so stark an wie früher; sie werden immer kleiner – nicht unbedingt schneller.

Single-Socket-Server machen sich die technischen Fortschritte der Prozessor- und der Formfaktor-Technologie zunutze. Zum Beispiel kann ein 1U-Single-Socket-Server (Unit, Höheneinheit) in einem Rack die E/A- und Rechenleistung für datenintensive Workloads, den Zugriff auf softwaredefinierten Speicher (SDS), das Erweitern von Virtualisierungsfunktionen und Edge-Setups übernehmen.

Das kann dabei helfen, Gebühren für Softwarelizenzen einzusparen, und IT-Abteilungen können von den besseren thermischen Eigenschaften von Single-Socket-Servern profitieren. Zum einen sparen sie Strom und Infrastruktur für die Kühlung und zum anderen können sie diese Server an externen Standorten und in beengten Räumen, wie zum Beispiel Edge-Rechenzentren, einsetzen, weil sie weniger Wärme abgeben.

Mit CXL und Gen-Z die Grenzen von Dual-Socket-Servern überwinden

Platz- und Kostenersparnis sind wichtige Vorteile von Single-Socket-Servern. Innovationen wie Compute Express Link (CXL) und der Interconnect des Gen-Z-Konsortiums tragen dazu bei, die Schwächen von Dual-Socket-Servern zu überwinden.

Die CXL-Initiative unterstützt ein offenes Ökosystem, das schnellere Serverhardware für Rechenzentren ermöglicht. Sie hat es sich zum Ziel gesetzt, die rapide ansteigende Größe von Workloads mit neuen Interconnects und verbesserter Memory-Kohärenz für datenintensive Projekte zu bewältigen.

Die CXL-Standards sind mit der Gen-Z-Fabric verzahnt, einem Arbeitsspeicherprotokoll, das die Verbindungsgeschwindigkeit zu Prozessoren und Beschleunigern erhöht und auch die Memory-Erweiterung vorantreibt. Die Gen-Z-Fabric trägt dazu bei, kühlere und schnellere Rechenzentrumstechnologie zu entwickeln und ermöglicht den schnellen Zugriff auf mehr Arbeitsspeicher. Er erleichtert Admins das Kopieren von Daten zwischen Memory-Domänen (Knoten-zu-Knoten oder CPU-zu-Beschleuniger), um die Leistung zu verbessern und den Energiebedarf zu senken.

Die Gen-Z-OSI (Open Systems Interconnection) kann mehr Effizienz und Bandbreite sowie niedrige Latenzzeiten bieten. Sie bietet Rack-Erweiterung über das Servergehäuse hinaus. Somit trägt sie dazu bei, Probleme bei der Beziehung zwischen CPU und Memory zu beseitigen und Systemengpässe zu reduzieren.

Die Fabric nutzt die load/store-Prozesse zwischen CPU und Memory, um mittels einer Vereinheitlichung der Kommunikationspfade die Leitung zu verbessern. Dieser Ansatz sorgt für effizientere Datenübertragungen zur Entlastung der Rechenressourcen, optimiert die Nutzung von Verbindungen und reduziert den Software-Overhead.

Die Zukunft der Single-Socket-Server

Für Organisationen, die keine ressourcenintensiven Rechen-Workloads durchführen, können Single-Socket-Server Kosten sparen. Das ist besonders wichtig für Unternehmen, die Neuanschaffungen planen oder fortgeschrittenere Technologien einsetzen möchten.

Single-Socket-Systeme fügen wichtige Hardwarefunktionen hinzu, wie zum Beispiel Speicherpartitionen und Netzwerkschutz, und können ein höheres Maß an Sicherheit bieten. Die niedrigeren Gesamtbetriebskosten (TCO, Total Cost of Ownership) und Leistungsverbesserungen könnten sich für viele Unternehmen lohnen.

Erfahren Sie mehr über Data-Center-Infrastruktur

ComputerWeekly.de

Close