Definition

HBM3E (High Bandwidth Memory 3E)

Was ist High Bandwidth Memory (HBM)?

HBM3E oder High Bandwidth Memory 3E ist die aktuelle Generation der High-Bandwidth-Memory-Technologie und wurde von SK Hynix im Mai 2023 vorgestellt. Es handelt sich dabei um eine Zwischenstufe zwischen HBM3 und dem bereits angekündigten HBM4. Das Interface wurde von SK Hynix in Zusammenarbeit mit Partnern wie AMD entwickelt und soll dynamische Arbeitsspeicher mit möglichst hoher Übertragungsrate an GPUs, FPGAs oder CPUs anbinden. Dazu werden mehrere Dies (Halbleiterchips) parallel angebunden und gestapelt.

Mit einer Verarbeitungsgeschwindigkeit von acht GBit/s pro Pin ist HBM3E knapp 25 Prozent schneller als die Vorgängergeneration HBM3. Auch die Kapazität wurde von 24 GB auf 36 GB erhöht. Die Datenübertragungsrate beträgt bis zu 1225 GBit/s pro Stack.

HBM3E ist für Hochleistungsanwendungen wie künstliche Intelligenz (KI), Grafikverarbeitung und Netzwerktechnik gedacht. HBM3E wird beispielsweise von Nvidia eingesetzt, etwa zuerst im GPU H200 Tensor Core oder die GPUs der GB200-Serie. Angekündigt wurde ein Einsatz im Blackwell Ultra B300 GPU (Stand Mai 2025). Da High Bandwidth Memory teurer in der Herstellung ist als gängige Speicher, wird es für High-End-Anwendungen genutzt.

SK Hynix startete die Massenproduktion von 8-Layer HBM3E im März 2024, gefolgt von der 12-Layer-Variante im September 2024. Die verschiedenen Stapelkonfigurationen (8-High und 12-High Stacks) ermöglichen unterschiedliche Kapazitäts- und Leistungsoptionen. Bemerkenswert ist auch die verbesserte Energieeffizienz: Einige Hersteller wie Micron berichten von bis zu 30 Prozent niedrigerem Stromverbrauch im Vergleich zu Konkurrenzprodukten.

Wie ist HBM aufgebaut?

Um eine höhere Bandbreite zu erreichen wie bei anderen DRAMs, werden bis zu acht DRAM-Dies gestapelt. So bleibt auch der Stromverbrauch geringer und der Formfaktor ist deutlich kleiner. Deshalb ist meist ein kleiner Kühlkörper für GPU und RAM ausreichend, aber die unteren Dies können nur schlecht Wärme ableiten. Trotz der höheren Bandbreite im Vergleich mit herkömmlichen DRAMs ist High Bandwidth Memory letztendlich energieeffizienter.

Auch die Verbindung von High Bandwidth Memory ist anders aufgebaut. Bei DRAM erfolgt die Verbindung entweder auf dem Hauptleiterchip oder über den Steckverbinder, HBM hingegen nutzt meist einen Silizium-Interposer als Substrat. Diese Chips wurden von AMD und Nvidia entwickelt. Als Voraussetzung müssen sich Prozessor und Speicher physisch nah sein. So werden auch automatisch die Speicherpfade kürzer. Die Herstellung ist jedoch deutlich kostspieliger. Alternativ ist auch eine direkte Stapelung auf GPU oder CPU möglich (3D-Integration). Die Verbindung innerhalb wird durch Microbumps und Through-Silicon-Vias erreicht. So ähnelt HBM der Hybrid-Memory-Cube-Schnittstelle (HMC) von Micron Technology.

Generationen von High Bandwidth Memory

Seit die Entwicklung im Jahr 2008 durch AMD begonnen hat, gibt es die folgenden Generationen des High Bandwidth Memorys. HBM nutzt eine Busbreite von 1024 Datenleitungen (1024-bit I/O) pro Stack.

HBM1 wurde bereits im Oktober 2013 von der JEDEC (Joint Electron Device Engineering Council) als amerikanischer Industriestandard anerkannt. Der maximale Takt lag bei 0,5 GHz und pro Stack betrug die Datenrate 128 GBit/s.

HBM2 wurde drei Jahre später am 12. Januar 2016 unter der Kennung JESD235a von der JEDEC anerkannt und die Kapazität von HBM1 wurde zunächst verdoppelt. Der maximale Takt lag bei 1,0 bis 1,2 GHz und so die Datenübertragungsrate bei 256 beziehungsweise 307 GBit/s pro Stack.

HBM2E diente als technologische Zwischenlösung vor HBM3, um die Kapazität von HBM2 zu verdoppeln und so auf eine Übertragungsrate von 461 GBit/s pro Stack zu erhöhen. Der maximale Takt lag bei 1,8 GHz. Vorgestellt wurde HBM2E im August 2019.

HBM3 bietet eine maximale Kapazität von 24 GB und eine Datenübertragungsrate von 819 GByte pro Sekunde und Stack. Ende 2020 wurde HBM3 bereits angekündigt, damals noch unter dem Namen HBMnext. Anerkannt wurde der Standard dann offiziell von JEDEC am 27. Januar 2022.

HBM3E ist der Zwischenschritt zwischen HBM3 und HBM4.

HBM4 wurde inzwischen von JEDEC als Standard JESD270-4 offiziell veröffentlicht. Die neue Generation wird eine Bandbreite von bis zu 2 TB/s erreichen, mit einer I/O-Geschwindigkeit von 8,0 Gbit/s und einer verdoppelten Anzahl an Datenbits (2048). Die Kapazität wird bei 16-Layer-Stacks bis zu 48 GB betragen. SK Hynix plant den Produktionsstart für die zweite Jahreshälfte 2025, Micron folgt 2026. Samsung entwickelt parallel seine HBM4-Generation mit 4-nm-Logik-Dies. Die Hauptanwendungsgebiete bleiben Hochleistungsrechner und KI-Workloads.

Diese Definition wurde zuletzt im Mai 2025 aktualisiert

Erfahren Sie mehr über Serverhardware