bdavid32 - stock.adobe.com

Wie die Digitalisierung Staaten in die Führungskrise treibt

Speichertechnik stürmt von Erfolg zu Erfolg. Doch High-Tech wird zum Spielball von Staaten und damit zur strategischen Waffe gemacht. Die allseitige Innovation steht zur Debatte.

Die meisten Dinge fangen klein an, viele bleiben klein und manchmal passt einfach alles in Raum und Zeit zusammen und es wird etwas sehr, sehr kleines draus. Bei einer 5,25-Zoll Floppy Disk (FD) mit ihren anfänglich 180 KByte Speicherplatz kann man im Rückblick nicht gerade von klein reden. Im Vergleich zu einer 8-Zoll Diskette plus Laufwerk, ist die „Miniaturisierung“ schon optisch deutlich erkennbar.

Ein Highlight der Verkleinerung war dann im Jahr 1985 die Festplatte ST-412 von Seagate. Selbst für Insider überraschend, ließen sich bei voller Bauhöhe im 5,25-Zoll Formfaktor 10 MByte Daten unterbringen, also 54-mal mehr Daten als auf dem 5,25 Zoll Floppy-Disk-Laufwerk mit demselben Volumen.

Warum der Rückblick? Es ist eine Erinnerung daran, wie für viele Menschen das Datenzeitalter begann und wie die weitere Entwicklung das Leben der gesamten Menschheit umgekrempelt hat. Millionen Menschen lernten auf einen Schlag, dass es neben dem analogen auch ein digitales Universum mit Zeichen und Blockgrafik gab.

Es fing ein neues Zeitalter an, das Freizeit wie Berufsleben bestimmen sollte. Physikalische Phänomene der Extraklasse wurden greifbar, erzeugten bei so ziemlich allen Menschen ein Erstaunen darüber, was alles geht, und begeisterten so manchen, aus diesem semiprofessionellen Spielzeug mehr herauszuholen. Doch schon Heraklit ahnte es: Panta Rhei (Alles ist fließend und Wandel beständig).

Immer mehr Daten brauchen immer weniger Platz

Dass da noch viel mehr ging, zeigte sich mit der Entwicklung der Speichertechnik. Hunderte Hersteller sahen ihre Zukunft darin, in einer Festplatte mit dem Formfaktor von 5,25 Zoll bei halber Bauhöhe mehr und mehr Informationen unterzubringen. Wer das konnte, hatte einen Konkurrenzvorsprung. Letztlich waren und sind nur Seagate, Western Digital und Toshiba in der Lage, jedes Jahr mehrere Hundert Millionen Laufwerke mit verlässlicher Qualität herzustellen.

Ohne politische Einflussnahme, die ein strategisches Interesse an dem Hightech-Produkt Festplatte hatte, wären es sogar noch weniger Hersteller. Nebenbei bemerkt, zeigt die Festplatte in ihrem technischen Fortschritt, dass deren Hersteller ihre erste Anforderung nach Platzausnutzung überreizt haben. Wer möchte schon gerne auf die Informationen eines 20 oder gar 100-TByte-Laufwerks warten, die mit 300 MByte/s aus dem Laufwerk rauströpfeln.

Unvergessen sind sicherlich auch die Zeiten, wo das Bandlaufwerk dafür verantwortlich gemacht wurde, dass die motorisierte Variante eines Datenspeichers mit Datenströmen und Lieferketten nicht klarkommt. Für den Semiprofi war die Bandsicherung immer ein Vabanque-Spiel. Diversität ist in diesem Speichersegment ein Fremdwort. Bei Bandlaufwerken treibt nur noch IBM das Laufwerk und Fujifilm das Magnetband nach vorne. Alles was hier entwickelt wird, ist technologisch betrachtet Neuland und ähnelt einem Erstflug zum Mars.

Am Ende eines Produktzyklus liefern die beiden Hersteller eine Hightech-Spitzenleistung der angewandten Forschung ab. Dabei wird die Dauerfrage eines Archivspeichers beantwortet, wie wenig Material zum Tragen der Informationseinheit notwendig ist, und ob nach 30jähriger Alterung das Laufwerk noch in der Lage ist, 400 TByte Daten von einem etwa 1000 Meter langen 0,5-Zoll breiten Band auszulesen. Was seit Jahren als alt und obsolet bezeichnet wird, zeigt sich hier nach wie vor zukunftstauglich. Die Kunden bezahlen die aktuelle Forschung mit dem Kauf von LTO-x; Gewinne macht IBM mit dem Pool von 8682 US-Patenten im Jahr 2021, zu denen die Bandlaufwerksforschung sicherlich einiges beiträgt.

Das Bit bekommt ein neues Bett

Der nächste Geniestreich bei der Informationsspeicherung ist zweifelsohne der Flash-Speicher. Statt Magnetmedien werden nun einige Hundert Elektronen einer Ladungsfalle respektive Kapazität gesammelt und ab einer gewissen Ladungsmenge als „0“ oder „1“ interpretiert.

Durch den Wegfall des rotierenden Speichermediums erhöht sich die Geschwindigkeit des Informationszugriffs signifikant um den Faktor 1.000. Den Vergleich mit Formfaktor und Speicherkapazität einer Festplatte braucht die Halbleiterfestplatte (SSD) auch nicht zu scheuen. Sie hat geringere Raumansprüche.

Unverzichtbar für den schnellen Aufstieg des Flash-Speichers ist die USB-Schnittstelle und der USB-Stick. In nur 23 Jahren ist USB 4.x entstanden, ein gemeinsamer Standard aus USB-Version 3.2 und Thunderbolt 3, oder ein Gemeinschaftswerk von USB-Konsortium und Apple, das Daten über externe Schnittstellen mit 40 Gbit/s respektive 5 GByte/s übertragen kann. Das ist eine Superleistung. Im PC-Bereich wird dies nur noch übertroffen von der internen PCIe-Schnittstelle, die direkt zum Prozessorkern führt. Aktuelle SSD-Generationen, die mit dem schlanken NVMe-Protokoll unterwegs sind, brauchen nun einen PCIe-Anschluss der Generation 5 mit maximal 32 GByte/s Bandbreite, damit sie bei einem Datentransfer mit 13 GByte/s nicht ausgebremst werden.

Es kann nur eine Speicherzelle geben

Flash-Memory auf NAND-Basis hat heute und bis auf weiteres einen unanfechtbaren Stand erreicht. Mitte der 90er Jahre war das nicht so sicher. Vielleicht war es der pure Neid der Altvorderen, vielleicht waren sie wirklich überzeugt etwas Besseres als Flash in der Schublade zu haben. Details aus dem „selbstzerstörerischen“ Leben von Flash-Speichern gelang wurden beständig in der Öffentlichkeit ventiliert: Bei jedem Speichervorgang altert die Speicherzelle; eine TLC-Zelle kann nur tausendmal beschrieben werden; SSDs können Daten nicht über mehrere Jahr ohne Stromzufuhr aufbewahren; wird die SSD permanent mit neuen Daten beschickt, sinkt die Schreibgeschwindigkeit durch interne Aufräumarbeiten; die SSD-Firmware verhindert, dass sich Daten bei einem Laufwerksfehler retten lassen; die integrierte Fehlerkorrektur arbeitet permanent am Limit und andere den Anwender verunsichernde Informationen mehr.   

Gleichzeitig öffneten sich die Schubladen der firmeninternen Forschungsabteilungen. Als Alternative zum Flash-Speicher forcieren Intel, IBM, Micron, Samsung, STM Microelectronics, Western Digital und andere die Ablösung der Flashzelle durch diverse Spielarten von Phasenwechselmaterial. Die Informationseinheit wird hier durch den Wechsel vom kristallinen in den amorphen Zustand detektiert. PCM (Phase Change Memory), PRAM, 3D Xpoint sind einige Namen für den millionenfach wiederbeschreibbaren Speichertyp.

Einige Prototypen entstehen und halten in den Zehner und Zwanziger Jahren des 2. Jahrtausends längere Zeit die Hoffnung hoch. IBM glaubt bis zum Schluss an seine PCM-Technik, die sogar in der Lage wäre, ein ganzes Byte in einer Zelle zu speichern. Doch nur Intel und Micron schafften es, unter dem Produktnamen Optane kurzzeitig käuflich erwerbbare Datenbeschleuniger-Speicherkarten auf den Markt zu bringen.

Als HP noch eine Fortschrittsmacht war

Die HP Labs von Hewlett-Packard arbeiteten sich ab 2008 öffentlichkeitswirksam am Memristor ab und erarbeiten mit „The Machine“ große Visionen für das zukünftige Computing. Dieser Speichertyp blitzt für einen kurzen Moment mit der Möglichkeit auf, direkt im Speicher rechnen zu können. EMC wollt zu diesem Zeitpunkt weg vom serverbasierten hin zum speicherzentrierten Computing. Memristor kann wie Synapsen agieren, verbrauchen wenig Strom, behalten ihren Speicherinhalt ohne Stromzufuhr und ermöglichen eine sechsmal höhere Speicherdichte als die Konkurrenzprodukte. 

Andere versuchten ihr Glück mit dem FRAM (Ferroelectric RAM), dem MRAM (Magnetoresistive RAM) oder wie IBMs mit dem Racetrack Memory. Im einstelligen Nanoraum wimmelte es damals von etablierten und Startup-Glücksrittern.

Es kann sein, dass wir noch die Rückkehr des Memristor in Form von ReRAMs erleben werden. Das israelische Unternehmen Weebit Nano hat Anfang 2022 einen 128 KByte Demo Chip vorgestellt. Die ReRAM-Speicherzelle ist direkt adressierbar und wie Flash nichtflüchtig, so dass Arbeits- und Massenspeicher auf demselben Storage stattfinden. Da Speicher und Prozessor als Rechenwerk zusammenarbeiten ist ein In-Memory Computing jenseits der von-Neumann-Computerarchitektur der große Vorteil, heißt es in den derzeit verfügbaren Informationen.

Eine Erfolgsgeschichte mit absehbarem Ende

Doch die Zeit ist nicht reif für eine alternative Speicherzelle. Die Alternativzellen haben nämlich auch ihre Schwachstellen, die sich mit einem halbherzigen Forschungsaufwand nicht mal eben abstellen lassen. Und in der Fertigungstechnik arbeiten sich die Flash-Hersteller zur gleichen Zeit in die dritte Dimension vor. Hochhausstrukturen mit Hunderten Speicherebenen im Millimeter-Bereich nachzuvollziehen, das hätte weitere Jahre gekostet.

Das Momentum der mit Billionensummen aufgebauten Flash-Ökosphäre aus amerikanisch-asiatischen Kooperationen, überwindet die Schwächen der Flash-Technik und wird zur alles dominierenden Speichertechnik. Doch die Flash-Technologie kommt an ein Limit. Noch sorgen 70 Atomlagen für die Trennung der p- und n-dotierten Schichten und solange noch zehn Atomlagen als Trennschicht vorhanden sind, werden wir auf die nächste Speicherchip-Verfolgergeneration aus dem „zweidimensonalen“ Raum namens Graphen, TMDC oder Dichalkogenide warten müssen.

Neben allen technischen Stoppschildern, bekommt die Überholspur, auf der sich die Flash-Technik seit Jahren befindet, Schlaglöcher verpasst – aus der Politik. Wurde der Intel Prozessor 8086 Ende der 70er Jahre noch mit 3-Mikrometer-Strukturen gefertigt, unterschreitet der Belichtungsprozess der Wafer nun die 10 Nanometer (nm). Für die bislang genutzte Immersions-Lithografie, auf die China noch Zugriff hat, ist bei 7 nm Schluss mit „weiter so“. Für die Eroberung der letzten sieben Nanometer gibt es damit nur einen Anbieter, der weder aus China noch den USA stammt.

Die niederländische ASML hat für „die letzte Lithografiemeile“ 20 Jahre forschen müssen, um ein technisches Meisterwerk rund um den Kern einer Belichtungsmaschinerie mit Extrem Ultraviolettem Licht (EUV) zu erschaffen. Für das 200 Tonnen schwere Hightech-Wunderwerks wurden an die 10 Milliarden Euro investiert. Eine halbe Million Einzelteile sorgen für eine Komplexität, die den Nachbau für andere unmöglich macht. Käufer der ersten Version müssen für die aktuelle Maschine 150 Millionen Euro hinblättern, das zukünftige High-NA-EUV-System für die Belichtung von 3-Nanometer-Strukturen wird in der Grundausstattung dann schon inklusive Inflation das Preisniveau von 500 Millionen Dollar erreichen.

Spitzentechnologie kann nicht allen gehören

Durch die Kulmination des Fertigungsprozesses in dieser einzigartigen Belichtungsanlage, werden die Grundlagen geschaffen auf der die amerikanische Ordnungsgewalt eine Reglementierung des globalen Marktes betreiben kann.

Diese Maschine, die erstaunlicherweise in so vielen physikalischen Grenzbereichen funktioniert, wurde für den Verkauf konzipiert. Aber nicht jedes Unternehmen, darf sie kaufen. Und nicht jeder der sie kaufen darf, darf sie dort aufstellen, wo er gerne möchte. Genau darum hat der amerikanische Präsident Joe Biden die niederländische Regierung gebeten. Zum finanziellen Ausgleich würden die USA mehr Systeme ordern, war auf der Wirtschaftsseite der Welt zu lesen.

Die erste Reaktion der niederländischen Ministerin für Außenhandel und Entwicklungszusammenarbeit Liesje Schreinemacher war zwar, dass „die USA uns solche Veränderungen nicht einfach aufzwingen können. Man sei souverän.“ Doch ein gewisses Einlenken ist damit schon angekündigt: „Als Handelsministerin weiß ich, dass wir dem offenen Handel viel zu verdanken haben, aber wir können dies nicht 'ungetrübt' tun. Wir müssen kritischer prüfen, mit welchen Ländern wir welche Waren austauschen.“

„America first“ schallt es aus den USA

Seitdem China im letzten Fünfjahresplan aus dem Jahr 2020 seine Interessenslage definiert hat, ist der politische Umgang des Westens vom Status „Partner“ auf „Konkurrenz“ gestellt worden. Als Schwerpunkte der chinesischen Politik wurde die Konzentration auf Schlüssel- und Kerntechnologien in Bereichen wie künstliche Intelligenz, Quanteninformation, integrierte Schaltkreise, Lebenswissenschaften (Life Science) und Gesundheitswesen, Hirnforschung, biotechnologische Züchtung, Luft- und Raumfahrttechnik sowie die Erforschung der Tiefen der Erde und der Ozeane verkündet.

Der chinesische Plan, ein führendes Land in wichtigen High-Tech-Bereichen zu werden, ist mit der amerikanischen „Bitte“ durchkreuzt. Ohne amerikanischen Support gibt es für China keinen alternativen Weg zu den wünschenswerten Miniaturisierungen für Superrechner, KI, Industrie 5.0 oder auch Quantenrechner. Dabei gäbe es so viel Material zu durchforsten. Schon jetzt warten 50 Zettabytes zur Gewinnung innovativer Produkte auf ihre Entdecker. Eine weitere „Wissenszunahme“ auf etwa zwei Yottabytes erwarten die Datenanalysten von Statista bis 2035. Die nächsten sieben Chip-Generationen sollten dann zusammen mindestens um den Faktor 40 schneller sein.

„Durch den Wegfall des rotierenden Speichermediums erhöht sich die Geschwindigkeit des Informationszugriffs signifikant um den Faktor 1.000. Den Vergleich mit Formfaktor und Speicherkapazität einer Festplatte braucht die Halbleiterfestplatte (SSD) auch nicht zu scheuen. Sie hat geringere Raumansprüche.“

Rainer Graefen, Freiberuflicher Autor

Leider gibt es dafür keinen gemeinsamen Strang, an dem alle ziehen, sondern gegenseitige Vorwürfe von Abhängigkeiten und Erpressbarkeit. Die Herstellung einer Nicht-Abhängigkeit wird zwangsläufig eine Massenproduktion verhindern, damit für höhere Preise sorgen, globale Märkte segmentieren, wenn nicht gar zum Ausschluss von Marktsegmenten führen. Ob da die dringlich von der Politik geforderte 2- und Mehr-Vendor-Strategie für eine kontinuierliche wirtschaftliche Versorgung mit allen erforderlichen Roh- und Vorprodukten sorgen kann?

Nicht zuletzt ist es nicht sicher, dass das gespeicherte Wissen der Menschheit wenigstens noch für den „Westen“ zur Verfügung steht. Der Inflation Reduction Act (IRA) soll den amerikanischen Markt stärken mit 369 Milliarden Dollar Subventionen attraktiver für Unternehmen machen und die Inflation senken helfen.

Siegfried Russwurm, Präsident des Bundesverbandes der Deutschen Industrie (BDI) zeigt sich desillusioniert. Steigenden Energiepreisen und amerikanischen Beihilfen für eine lokale Produktion könnten zu einer De-Industrialisierung des europäischen Standortes führen. So beharken sich dann US-Außenminister Anthony Blinken mit dem Standpunkt „America first“ und EU-Kommissarin Margrethe Vestager mit dem Vorwurf „Protektionismus“.

Hochtechnologie, so ein Resultat der US-amerikanische Marktbeschränkung, wird zu einer strategischen Waffe gemacht. Vorbei die Zeit, wo das digitale Zeitalter der Menschheit eine goldene Zukunft zu eröffnen schien.

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

Erfahren Sie mehr über Flash Storage und SSD

ComputerWeekly.de
Close