Tosk - stock.adobe.com

Wie hoch ist der Energiebedarf von KI?

Der Energiehunger von KI ist beträchtlich. Das wochenlange Training und die tägliche Nutzung durch Millionen Menschen treiben den Stromverbrauch von Rechenzentren in die Höhe.

Künstliche Intelligenz (KI) ist längst mehr als nur ein Trend. Sie wird in vielen Bereichen eingesetzt, von der Texterstellung über die Spracherkennung bis hin zur Bildanalyse. Doch so beeindruckend viele Anwendungen auch sind: KI ist nicht unumstritten. Diskussionen über Datenschutz, Urheberrechte, Jobverluste und eben auch Umweltfolgen nehmen zu. Ein Aspekt gerät dabei oft in den Hintergrund: der Energieverbrauch. Denn KI braucht vor allem eines, um zu funktionieren: Strom. Und davon nicht wenig. Dieser Artikel zeigt, wie hoch der Energiebedarf moderner KI-Systeme ist, wo die größten Stromfresser sitzen und warum das Thema mehr Aufmerksamkeit verdient.

Training vs. Inferenz: Wo die Energie hingeht

Sprachmodelle wie GPT sind die technische Grundlage vieler KI-Angebote im Internet, darunter ChatGPT, Gemini, DeepSeek und Copilot. Diese Modelle nutzen riesige Datenmengen, um Sprache zu verstehen und menschenähnliche Antworten zu generieren.

Der Energieverbrauch eines KI-Modells fällt in zwei entscheidenden Phasen an: Training und Inferenz. Das Training ist die aufwendigste Phase. Hier werden riesige Mengen an Textdaten verarbeitet, analysiert und gewichtet. Dafür laufen Hochleistungsrechner in Rechenzentren oft wochenlang auf Hochtouren. Allein das Training von GPT-3 soll rund 1.287 Megawattstunden (MWh) Strom verbraucht haben, was etwa dem Jahresverbrauch von 120 deutschen Durchschnittshaushalten entspricht. GPT-4 benötigt aufgrund seiner höheren Komplexität noch deutlich mehr Energie – es sollen bis zu 62.319 MWh sein. Allerdings sind nicht alle KI-Modelle gleich energieintensiv: Spezialisierte Systeme für die Medizin oder die Wettervorhersage verbrauchen oft weniger Energie als universelle Sprachmodelle.

Aktuelle Forschung zeigt jedoch, dass optimierte Trainingsmethoden und spezialisierte Chips den Energieverbrauch deutlich senken können. Forschende der TU München entwickelten etwa eine Technik, die das Training neuronaler Netze bis zu hundertmal effizienter macht.

Nach dem Training folgt die sogenannte Inferenz. Das ist der Moment, in dem das Modell auf konkrete Anfragen von Nutzern reagiert, also zum Beispiel einen Text schreibt oder eine Frage beantwortet. Auch hier wird Rechenleistung benötigt, wenn auch deutlich weniger als beim Training. Dennoch kommt einiges zusammen, wenn täglich Millionen von Anfragen bearbeitet werden. Der Energieverbrauch pro Anfrage hängt stark von der Nutzung ab: Eine kurze Textzusammenfassung verbraucht weniger als ein langes Gespräch mit mehreren Anfragen.

Energiekonsum von KI im Vergleich

Training von GPT-3: etwa 1.287 MWh
Training von GPT-4: etwa 51.773 bis 62.319 MWh
Einfache ChatGPT-Anfrage: etwa 0,001 bis 0,01 kWh
ChatGPT-Anfrage mit Texterstellung: etwa 0,3 bis 1 kWh
Google-Suchanfrage: etwa 0,0003 kWh
Bitcoin-Transaktion: etwa 1,24 kWh
Rechenzentren weltweit: etwa 1 bis 2 Prozent des globalen Stromverbrauchs

Eine einzelne ChatGPT-Anfrage kann zwischen 0,3 und einer kWh verbrauchen, je nach Modell und Rechenzentrumsinfrastruktur. Zum Vergleich: Eine Google-Suchanfrage benötigt nur etwa 0,0003 kWh. Eine einzelne Bitcoin-Transaktion verbraucht rund 1,24 kWh. KI-Anfragen bewegen sich zwischen diesen Extremen. 100.000 VISA-Kreditkartentransaktion benötigen dagegen mit 0,1483 kWh nur einen Bruchteil dieser Energie.

Moderne Rechenzentren setzen zunehmend auf spezialisierte Hardware und energieeffiziente Chips, die den Stromverbrauch während der Inferenz reduzieren. Auch die Verwendung von kleineren, spezialisierten KI-Modellen für bestimmte Aufgaben hilft dabei, Energie zu sparen.

Was Unternehmen gegen den Energiehunger tun

Die KI-Anbieter sind sich des Problems bewusst und versuchen, Abhilfe zu schaffen. Zum einen setzen sie auf effizientere Hardware wie spezialisierte Chips, die mehr Leistung bei geringerem Stromverbrauch bieten. Zum anderen arbeiten sie daran, die Modelle selbst sparsamer zu machen. Das kann zum Beispiel durch Komprimierung, clevere Trainingsmethoden oder kleinere Spezialmodelle für bestimmte Aufgaben geschehen.

Viele große Anbieter betreiben ihre Rechenzentren inzwischen mit erneuerbaren Energien oder kaufen entsprechende Zertifikate, um ihren CO₂-Fußabdruck. Grüne Energie ist jedoch nicht unbegrenzt verfügbar. Der steigende Strombedarf der KI könnte den Druck auf andere Sektoren erhöhen, ebenfalls kohlenstofffrei zu werden. Gleichzeitig experimentieren einige Unternehmen mit neuen Ansätzen wie der Flüssigkühlung für Rechenzentren, um den Energieverbrauch weiter zu senken.

Ein weiterer Ansatz stammt von Google: Das Unternehmen will Machine-Learning-Workloads künftig flexibel anpassen, also bei hoher Netzauslastung drosseln oder verschieben. In Kooperation mit den US-Energieversorgern Indiana Michigan Power (I&M) und Tennessee Valley Authority (TVA) testet Google sogenannte Demand-Response-Modelle, um die Netze zu entlasten. Von dieser Maßnahme sind nicht-kritische KI-Lasten betroffen, während Kernfunktionen wie Search oder Maps uneingeschränkt weiterlaufen.

Chinas DeepSeek wurde ursprünglich als energieeffizientes KI-Modell beworben, doch Analysen zeigen ein differenzierteres Bild. Während das Training durch optimierte Methoden tatsächlich weniger Energie verbraucht, scheint die Inferenz, also die Beantwortung von Anfragen, deutlich energieintensiver zu sein.

Ein Grund dafür ist die Chain-of-Thought-Logik, die komplexere Antworten generiert, aber auch mehr Rechenleistung benötigt. In einigen Tests verbrauchte DeepSeek bei der Inferenz sogar bis zu 87 Prozent mehr Energie als vergleichbare Modelle. DeepSeek kann also beim Training sparsamer sein, aber im Betrieb mehr Energie verbrauchen als andere KI-Modelle.

Fazit

KI ist kein magischer Helfer, sondern eine riesige Maschine im Hintergrund, die Strom verbraucht – und zwar nicht wenig. Wer KI nutzt, sollte sich bewusst sein, dass jede Anfrage Energie kostet. Damit KI nicht zum Klimaproblem wird, müssen Effizienz und Nachhaltigkeit zum Standard werden: weniger Ressourcen, mehr Output und ein Strommix, der das Klima nicht weiter belastet. Fortschritte in der Hardware- und Softwareentwicklung bieten neue Möglichkeiten, den Energieverbrauch zu senken. Anwender und Entwickler sollten sich aktiv für energieeffiziente Technologien entscheiden.

Gleichzeitig rückt die Verantwortung der Betreiber in den Fokus: Unternehmen sollten aktiv auf energieeffiziente und netzdienliche Lösungen setzen. Demand-Response-Modelle wie bei Google könnten ein praktikabler Weg sein, den steigenden Energiebedarf zu beherrschen.

Erfahren Sie mehr über Künstliche Intelligenz (KI) und Machine Learning (ML)