Victoria - stock.adobe.com
Chiphersteller warnen vor baldigem Mangel an SSDs und DRAM
Hyperscaler und Serverhersteller kaufen zu viele Memory-Komponenten für ihre KI-Infrastrukturen, mehr als der Markt bietet. Die Preise explodieren und eine Verknappung droht.
Dem Speichermarkt drohen Engpässe bei DRAM-, NAND- und wahrscheinlich auch High Bandwidth Memory (HBM). Laut den jüngsten Finanzberichten verschiedener Anbieter dieser Komponenten übersteigt die Nachfrage seitens der Cloud-Anbieter das verfügbare Angebot. Das Problem wird durch die kürzlich von der Trump-Regierung verschärfte Regelung, diese Komponenten in chinesischen Fabriken herstellen zu lassen, noch verschlimmert. Es gibt hier nun den so genannten Exemption Waiver beziehungsweise die Verified End User-Ausnahmen für Firmen wie Samsung Electronics oder SK Hynix. Diese Hersteller benötigen nun eine behördliche Lizenz, um US-Halbleiterausrüstung in ihre Fabriken in China liefern zu dürfen, insbesondere wenn es um aktuelle Fertigungstechnologien für DRAM und NAND geht. Diese Regulierung zielt ausdrücklich auf Speicherchips ab. Diese und entsprechende Technologien stehen nach dieser neuen Regelung verschärften Export- und Produktionskontrollen gegenüber. Aber das ist nur ein Faktor, der den Markt für Memory-Komponenten beeinflussen wird.
Der größte Hersteller dieser Komponenten, Samsung, gab letzte Woche in der koreanischen Presse bekannt, dass er sich in seinen Fabriken in Pyeongtaek und Hwaseong (beide in Südkorea), die bisher beide Arten von Komponenten hergestellt haben, auf die Produktion von DRAM-Chips zum Nachteil von NAND-Chips konzentrieren werde.
Als Grund wird angegeben, dass RAM-Speicher derzeit die größte Nachfrage seitens der Kunden darstellt. Dieser explosionsartige Anstieg des DRAM-Bedarfs sei auf die neue Notwendigkeit zurückzuführen, über viel Speicherplatz in Servern zu verfügen, um KI-Modelle zu laden, deren Größe die von klassischen Webanwendungen bei weitem übersteigt. Und dabei geht es nur um die Deckung des Bedarfs an Inferenz, also die Nutzung einer vortrainierten KI durch Unternehmen.
Der Druck auf die DRAM-Fertigung wird Auswirkungen auf die internen HBM-Speicher in den GPUs haben, die für das KI-Training ausgelegt sind. Es handelt sich in beiden Fällen um dieselben Schaltkreise – sie werden auf denselben Produktionsketten hergestellt. Der Unterschied liegt in der Art und Weise, wie sie an einen Kommunikationsbus angebunden werden. Der HBM-Bus ist sehr groß, weil er so konzipiert ist, dass er direkt mit den Pins eines Rechenchips verbunden wird, während der Bus für DDR5-Chips kleiner ist, um einen Teil der Verbindungen hinter einem Chipsatz unterzubringen.
Mehr als 60 Prozent höhere Preise für DDR5 und mehr als 100 Prozent mehr bis Ende 2026
Die serverseitige Nachfrage nach mehr Arbeitsspeicher für Server ist derzeit so hoch, dass der Preis für DDR5-DRAM-Komponenten auf dem Großmarkt schon im November 2025 um 60 Prozent gestiegen ist. Die Hersteller legen ihre Preise üblicherweise zum Monatsende fest – doch Samsung verzögerte die Bekanntgabe im November 2025 um 15 Tage, um die Lage besser einschätzen zu können.
Laut Tobey Gonnerman, dem Geschäftsführer des Speichergroßhändlers Fusion Worldwide, der von der Agentur Reuters zitiert wird, „müssen die meisten Serverhersteller und Betreiber von Rechenzentren nun akzeptieren, dass sie ihre Speicherkomponenten nicht mehr rechtzeitig erhalten und dass die Preise für einen Premium-Zugang zu den Lagerbeständen bereits ... extrem sind”. So kostete ein 32-GB-DDR5-Chip im November 2025 rund 239 US-Dollar, gegenüber 149 US-Dollar Ende September. Für einen 16-GB-Chip lagen die Kosten bei 135 US-Dollar und für einen 64-GB-Chip fielen 1.194 US-Dollar an.
Ein weiteres Problem: Samsung und der koreanische Konkurrent SK Hynix haben ihre Fertigungslinien auf neuere Belichtungsverfahren umgestellt – bei Samsung die Generation „1c“ (11–12 nm), bei SK Hynix „1b“ (12–13 nm). Doch diese neuen Verfahren liefern noch schlechte Ausbeuten. Bei Samsung sind nur 50–70 Prozent der DRAM-Chips eines Wafers funktionsfähig; üblich wären etwa 80 Prozent.
Zusätzlich verschärft Nvidia die Lage: Das Unternehmen plant, bis Ende 2026 für seine Inferenz-GPUs nur noch LPDDR5 zu verwenden – einen energieeffizienteren, aber deutlich schwerer herzustellenden Speichertyp. Laut Gonnerman würde die breite Einführung von LPDDR5 in Rechenservern den Arbeitsspeicherpreis faktisch verdoppeln.
Analysten erwarten daher, dass sich die DRAM-Preise frühestens Mitte 2027 stabilisieren.
Auch SSDs steuern auf eine Verknappung zu
Da Samsung und SK Hynix Teile ihrer NAND-Fertigung zugunsten von DRAM umrüsten, könnte sich gegen Ende 2025 bis Ende 2026 auch eine SSD-Knappheit abzeichnen.
Der erste Warnhinweis kam vom SSD-Hersteller Phison in seinem jüngsten Finanzbericht. Laut CEO Khein-Seng Pua kostet ein 1-Terabit-NAND-TLC-Chip inzwischen 10,70 US-Dollar (im Sommer: 4,80 US-Dollar). Alle SSD-Kontingente, die Phison 2026 produzieren wird, sind bereits verkauft – die Preise dürften daher bis 2027 weiter steigen.
Kurz darauf Konkurrent SanDisk gegenüber Digitimes Asia bekannt, dass alle seine NAND-Chip-Lieferanten auf dem Markt ihre Preise zwischen Oktober und November um 50 Prozent erhöht hätten. Auch hier musste man ungewöhnliche 15 Tage auf die monatliche Preisaktualisierung warten.
Analysten sehen nicht nur eine sinkende Produktion bei Samsung als Ursache der Knappheit, sondern auch die drastisch steigende Nachfrage aus der KI-Infrastruktur. KI-Anbieter setzen zunehmend auf SSDs statt Festplatten, um große Large Language Models (LLM) schneller in den RAM zu laden. Hersteller wie Transcend, Innodisk und Apacer, die NAND-Chips kaufen und weiterverarbeiten, verzeichneten deshalb außergewöhnliche Umsatzsprünge von 27 Prozent, 64 Prozent beziehungsweise 70 Prozent innerhalb eines Jahres.
Als Reaktion auf die drohende Verknappung gab Server- und PC-Hersteller Lenovo gegenüber Bloomberg bekannt, dass man jetzt schon große DRAM- und NAND-Bestände sichert, um alle Geräte bis Ende 2026 ausstatten zu können. Acer soll laut dem Wirtschaftsmagazin sogar eine Delegation direkt zu Samsung geschickt haben, um Komponenten direkt ab Werk zu kaufen – ohne den üblichen Zwischenhandel.
Micron kündigte zudem Anfang Dezember an, den Verkauf Crucial-Produkte für Privatanwender bis Ende des zweiten Quartals 2026 einzustellen. Obwohl auch die Preise für Enkundenkomponenten 2025 stark gestiegen sind, will der Hersteller sich vermehrt auf seine Enterprise-Produkte konzentrieren. Ob dies dem Markt für Memory-Komponenten für Unternehmen Entspannung bringt, ist fraglich, aber der Hersteller baut auf den derzeitigen Boom von KI-Umgebungen. Denn der Fokus wird nun vor allem auf Komponenten für KI-Infrastrukturen liegen, da hier die Nachfrage enorm hoch und die Lieferengpässe signifikant sind.
Momentan tätigen Unternehmen hohe Investitionen in ihre KI-Infrastrukturen, doch der wirtschaftliche Erfolg ist noch nicht zu verzeichnen. Ob dies auch in den kommenden 18 Monaten so sein wird, bleibt abzuwarten. Die Abhängigkeit von Samsung, SK Hynix und Micron bedeutet für europäische Serverhersteller wie Wortmann, Atos oder IBM, dass sie schlechter planen können und schlechtere Einkaufskonditionen als US-Tech-Riesen hinnehmen müssen. Dies schwächt die europäische IT-Industrie gegenüber den USA und Asien weiter.