WavebreakmediaMicro - stock.adob

Warum das Quettabyte-Zeitalter für Herausforderungen sorgt

Das unaufhaltsame Datenwachstum, die steigenden Analyseprozesse und lange Speicherzeiten stellen Rechenzentren und Umweltinitiativen vor große Herausforderungen.

Im Jahr 2024 werden die Datenmengen unter anderem durch den verstärkten Einsatz von künstlicher Intelligenz (KI) weltweit weiter stark wachsen. Dieses unkontrollierte Datenwachstum hat große Auswirkungen auf den Wasser- und Energieverbrauch. Deshalb gilt es jetzt, das Datenwachstum auf Diät zu setzen.

In mehr als der Hälfte aller Unternehmen wächst das Datenvolumen um durchschnittlich 50 Prozent pro Jahr. Gleichzeitig haben die meisten Organisationen eine mit Daten überfüllte Infrastruktur, deren Inhalte im Durchschnitt zu 70 Prozent unbekannt sind. Mit diesem exponentiellen Wachstum sind sogar neue Begriffe entstanden. So hat die General Conference on Weights and Measures zum ersten Mal seit 1991 die Maßeinheiten für Daten erweitert – Quetta und Ronna haben nun Yotta als bisher größtes Einheitenpräfix abgelöst. Um diese Datenmenge besser einzuordnen: Wollte man ein Quettabyte auf dem iPhone 15 speichern, bräuchte man so viele Geräte, dass sie nebeneinander aufgereiht die Entfernung von der Erde zur Sonne abdecken würden.

Datenwachstum hat großen Energiehunger

All diese Daten benötigen Strom, KI sogar noch deutlich größere Mengen. Während eine Standard-Stichwortsuche in Google etwa 0,3 Wattstunden Strom verbraucht, liegt der Stromverbrauch einer Schätzung des Vorsitzenden von Alphabet zufolge bei einer Large Language Modell (LLM)-Transaktion bei etwa 3 Wattstunden und ist somit 10-mal höher – und verursacht entsprechend auch 10-mal höhere Kosten. 

Eine Bewertung von SemiAnalysis geht davon aus, dass ChatGPT auf 195 Millionen Anfragen pro Tag antwortet, was einen geschätzten durchschnittlichen Stromverbrauch von 564 MWh pro Tag oder höchstens 2,9 Wh pro Anfrage erfordert. Und auch KI-Hardware verbraucht deutlich mehr Strom: statt 8,4 KWh benötigt ein KI-Rack bis zu 30 KWh. Daher geht das Forschungsunternehmen SemiAnalysis davon aus, dass OpenAI für die Unterstützung von ChatGPT 3.617 HGX A100-Server von NVIDIA mit insgesamt 28.936 Grafikprozessoren (GPUs) benötigt, was einem Energiebedarf von 564 MWh pro Tag entspricht.

Zwar steigt auch die Effizienz der Rechenzentren (PUE, Power Usage Effect), damit lässt sich die steigende Arbeitslast aber bei weitem nicht ausgleichen. Bis 2030 werden allein in Europa 112,7 TWh Energie 547 Millionen Kubikmeter Wasser benötigen und damit in zehn Jahren um 250 Prozent steigen. Gleichzeitig wird der Datenkonsum 378 Prozent mehr Energie verbrauchen. Bis 2030 werden wir allein in Europa zudem durch den steigenden Datenkonsum 250 Prozent mehr Wasser verbrauchen – und das ist bereits in sieben Jahren. 

Klimaneutrale Rechenzentren bis 2030

Dieser exponentielle Energiehunger der neuen Infrastruktur steht allerdings im Widerspruch zu den politischen Zielen zahlreicher globaler und europäischer Initiativen wie der COP26 und dem European Green Deal von 2020, der Europa bis 2050 klimaneutral gestalten möchte. Die Internationale Energieagentur hat das Ziel, die Emissionen von Rechenzentren weltweit bis 2030 mindestens zu halbieren. Und diese Aussage wurde getroffen, bevor die schnelle Verbreitung von KI das Rechen- und Datenvolumen deutlich in die Höhe getrieben hat.

Inmitten der Klimakrise reichen die Bemühungen von Unternehmen und IT-Branche derzeit längst noch nicht aus, um die Datenmengen und damit den Wasser- und Energieverbrauch zu reduzieren. Effizienz und Management allein lösen nicht das Problem, denn es werden einfach viel zu viele Daten viel zu lange gespeichert. 

Unternehmen einer Datendiät unterziehen

Wir müssen unser Verhalten im Umgang mit Daten ändern und sorgsamer mit der Ressource umgehen, indem wir Daten katalogisieren und Datenmüll löschen, insbesondere bei Cloud-Speichern. Unternehmen können ihre Daten mithilfe von Datenverwaltungssoftware indexieren, um veraltete, redundante, verwaiste und überholte Daten zu identifizieren und risikofrei zu löschen. Zudem ist es möglich, die Volumina durch clevere Technologien wie Deduplizierung und Komprimierung zu reduzieren, um Speicherplatz freizugeben. Dabei werden in den Daten redundante Strukturen automatisch durch kleinere Platzhalter auf Bit-Ebene ersetzt. Eine ESG-Analyse unter mehr als 3.000 Cohesity-Kunden vom Dezember 2022 belegt, dass 89 Prozent der Unternehmen, die diese Plattform nutzen, eine 96-fache Datenreduktion erreichen, wobei viele noch deutlich höhere Reduktionsraten erzielten. 

Mark Molyneux, Cohesity

„Inmitten der Klimakrise reichen die Bemühungen von Unternehmen und IT-Branche derzeit längst noch nicht aus, um die Datenmengen und damit den Wasser- und Energieverbrauch zu reduzieren. Effizienz und Management allein lösen nicht das Problem, denn es werden einfach viel zu viele Daten viel zu lange gespeichert.“

Mark Molyneux, Cohesity

Unternehmen bewahren dann nur noch diejenigen Daten auf, die sie vorhalten müssen, und auch nur für den vorgeschriebenen Zeitraum. So verringern sie nicht nur die Datenberge. Wird ein Unternehmen Opfer eines Cyberangriffs, kann es besser identifizieren, was kompromittiert, verschlüsselt oder entwendet wurde. Gleichzeitig trägt die höhere Datenqualität dazu bei, dass KI-Technologien wie Machine Learning oder LLMs auf einer soliden Basis agieren – und Organisationen bekommen ihr unkontrolliertes Datenwachstum immer besser in den Griff. 

Über den Autor: Mark Molyneux ist EMEA CTO bei Cohesity.

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

Erfahren Sie mehr über Storage Management

ComputerWeekly.de
Close