Tosk - stock.adobe.com

Wie viel Energie verbraucht künstliche Intelligenz?

Der Energiehunger von KI ist beträchtlich. Das wochenlange Training und die tägliche Nutzung durch Millionen Menschen treiben den Stromverbrauch von Rechenzentren in die Höhe.

Künstliche Intelligenz (KI) ist längst mehr als nur ein Trend. Sie wird in vielen Bereichen eingesetzt, von der Texterstellung über die Spracherkennung bis hin zur Bildanalyse. Doch so beeindruckend viele Anwendungen auch sind: KI ist nicht unumstritten. Diskussionen über Datenschutz, Urheberrechte, Jobverluste und eben auch Umweltfolgen nehmen zu. Ein Aspekt gerät dabei oft in den Hintergrund: der Energieverbrauch. Denn KI braucht vor allem eines, um zu funktionieren: Strom. Und davon nicht wenig. Dieser Artikel zeigt, wie hoch der Energiebedarf moderner KI-Systeme ist, wo die größten Stromfresser sitzen und warum das Thema mehr Aufmerksamkeit verdient.

Training vs. Inferenz: Wo die Energie hingeht

Sprachmodelle wie GPT sind die technische Grundlage vieler KI-Angebote im Internet, darunter ChatGPT, Gemini, DeepSeek und Copilot. Diese Modelle nutzen riesige Datenmengen, um Sprache zu verstehen und menschenähnliche Antworten zu generieren.

Der Energieverbrauch eines KI-Modells fällt in zwei entscheidenden Phasen an: Training und Inferenz. Das Training ist die aufwendigste Phase. Hier werden riesige Mengen an Textdaten verarbeitet, analysiert und gewichtet. Dafür laufen Hochleistungsrechner in Rechenzentren oft wochenlang auf Hochtouren. Allein das Training von GPT-3 soll rund 1.287 Megawattstunden (MWh) Strom verbraucht haben, was etwa dem Jahresverbrauch von 120 deutschen Durchschnittshaushalten entspricht. GPT-4 benötigt aufgrund seiner höheren Komplexität noch deutlich mehr Energie – es sollen bis zu 62.319 MWh sein. Allerdings sind nicht alle KI-Modelle gleich energieintensiv: Spezialisierte Systeme für die Medizin oder die Wettervorhersage verbrauchen oft weniger Energie als universelle Sprachmodelle.

Aktuelle Forschung zeigt jedoch, dass optimierte Trainingsmethoden und spezialisierte Chips den Energieverbrauch deutlich senken können. Forschende der TU München entwickelten etwa eine Technik, die das Training neuronaler Netze bis zu hundertmal effizienter macht.

Nach dem Training folgt die sogenannte Inferenz. Das ist der Moment, in dem das Modell auf konkrete Anfragen von Nutzern reagiert, also zum Beispiel einen Text schreibt oder eine Frage beantwortet. Auch hier wird Rechenleistung benötigt, wenn auch deutlich weniger als beim Training. Dennoch kommt einiges zusammen, wenn täglich Millionen von Anfragen bearbeitet werden. Der Energieverbrauch pro Anfrage hängt stark von der Nutzung ab: Eine kurze Textzusammenfassung verbraucht weniger als ein langes Gespräch mit mehreren Anfragen.

Eine einzelne ChatGPT-Anfrage kann zwischen 0,3 und einer kWh verbrauchen, je nach Modell und Rechenzentrumsinfrastruktur. Zum Vergleich: Eine Google-Suchanfrage benötigt nur etwa 0,0003 kWh. Eine einzelne Bitcoin-Transaktion verbraucht rund 1,24 kWh. KI-Anfragen bewegen sich zwischen diesen Extremen. 100.000 VISA-Kreditkartentransaktion benötigen dagegen mit 0,1483 kWh nur einen Bruchteil dieser Energie.

Moderne Rechenzentren setzen zunehmend auf spezialisierte Hardware und energieeffiziente Chips, die den Stromverbrauch während der Inferenz reduzieren. Auch die Verwendung von kleineren, spezialisierten KI-Modellen für bestimmte Aufgaben hilft dabei, Energie zu sparen.

Warum der steigende Energieverbrauch problematisch ist

Je mehr KI-Anwendungen in Unternehmen, Schulen, Verwaltungen und im Alltag eingesetzt werden, desto größer wird der Strombedarf. Vor allem, wenn viele Menschen gleichzeitig auf große Sprachmodelle zugreifen oder diese für automatisierte Prozesse im Hintergrund laufen. Das Problem: Stammt der dafür benötigte Strom nicht aus erneuerbaren Quellen, steigt der Ausstoß von CO₂. Schon heute entfallen etwa ein bis zwei Prozent des weltweiten Stromverbrauchs auf Rechenzentren. KI trägt dazu bei, dass dieser Anteil weiter steigt.

Langfristige Prognosen sind schwierig: Einige Studien sagen einen exponentiellen Anstieg voraus, andere weisen darauf hin, dass Effizienzsteigerungen den Verbrauch stabilisieren könnten.

Energieverbrauch von KI im Vergleich

Training von GPT-3: etwa 1.287 MWh
Training von GPT-4: etwa 51.773 bis 62.319 MWh
Einfache ChatGPT-Anfrage: etwa 0,001 bis 0,01 kWh
ChatGPT-Anfrage mit Texterstellung: etwa 0,3 bis 1 kWh
Google-Suchanfrage: etwa 0,0003 kWh
Bitcoin-Transaktion: etwa 1,24 kWh
Rechenzentren weltweit: etwa 1 bis 2 Prozent des globalen Stromverbrauchs

Ein weiteres Problem: Die Nachfrage nach KI wächst schneller als die Effizienz von Hard- und Software. Neue, größere Modelle benötigen trotz aller Fortschritte bei Chips und Algorithmen mehr und nicht weniger Rechenleistung. Um dieser Entwicklung entgegenzuwirken, hat sich der sogenannte AI Energy Score etabliert. Er bewertet die Energieeffizienz verschiedener KI-Modelle und hilft Entwicklern bei der Auswahl ressourcenschonender Lösungen.

Was Unternehmen gegen den Energiehunger tun

Die KI-Anbieter sind sich des Problems bewusst und versuchen, Abhilfe zu schaffen. Zum einen setzen sie auf effizientere Hardware wie spezialisierte Chips, die mehr Leistung bei geringerem Stromverbrauch bieten. Zum anderen arbeiten sie daran, die Modelle selbst sparsamer zu machen. Das kann zum Beispiel durch Komprimierung, clevere Trainingsmethoden oder kleinere Spezialmodelle für bestimmte Aufgaben geschehen.

Viele große Anbieter betreiben ihre Rechenzentren inzwischen mit erneuerbaren Energien oder kaufen entsprechende Zertifikate, um ihren CO₂-Fußabdruck. Grüne Energie ist jedoch nicht unbegrenzt verfügbar. Der steigende Strombedarf der KI könnte den Druck auf andere Sektoren erhöhen, ebenfalls kohlenstofffrei zu werden. Gleichzeitig experimentieren einige Unternehmen mit neuen Ansätzen wie der Flüssigkühlung für Rechenzentren, um den Energieverbrauch weiter zu senken.

Chinas DeepSeek wurde ursprünglich als energieeffizientes KI-Modell beworben, doch Analysen zeigen ein differenzierteres Bild. Während das Training durch optimierte Methoden tatsächlich weniger Energie verbraucht, scheint die Inferenz, also die Beantwortung von Anfragen, deutlich energieintensiver zu sein.

Ein Grund dafür ist die Chain-of-Thought-Logik, die komplexere Antworten generiert, aber auch mehr Rechenleistung benötigt. In einigen Tests verbrauchte DeepSeek bei der Inferenz sogar bis zu 87 Prozent mehr Energie als vergleichbare Modelle. DeepSeek kann also beim Training sparsamer sein, aber im Betrieb mehr Energie verbrauchen als andere KI-Modelle.

Fazit

KI ist kein magischer Helfer, sondern eine riesige Maschine im Hintergrund, die Strom verbraucht – und zwar nicht wenig. Wer KI nutzt, sollte sich bewusst sein, dass jede Anfrage Energie kostet. Damit KI nicht zum Klimaproblem wird, müssen Effizienz und Nachhaltigkeit zum Standard werden: weniger Ressourcen, mehr Output und ein Strommix, der das Klima nicht weiter belastet. Fortschritte in der Hardware- und Softwareentwicklung bieten neue Möglichkeiten, den Energieverbrauch zu senken. Anwender und Entwickler sollten sich aktiv für energieeffiziente Technologien entscheiden.

Erfahren Sie mehr über Künstliche Intelligenz (KI) und Machine Learning (ML)