andreyphoto63 - stock.adobe.com

Wie künstliche Intelligenz IT-Kosten in die Höhe treibt

Der Boom der KI-Anwendungen bringt nicht nur Vorteile mit sich. Nicht nur die Entwicklung kostet, sondern auch der enorme Strom- und Ressourcenaufwand reibt die Kosten in die Höhe.

Der Hype um generative künstliche Intelligenz hält den Markt in Atem und hat Auswirkungen auf alle Branchen und Lebensbereiche. Zahlreiche Unternehmen versprechen sich vom Einsatz generativer KI Leistungseffizienz und Wachstumschancen. Für Entwickler generativer KI ist die aktuelle Situation ein zweischneidiges Schwert: zum einen lässt sich als KI-Experte ein gutes Einkommen erzielen, zum anderen stehen die Entwickler unter hohem Druck, die KI-Lösungen schnellstmöglich voranzutreiben und leistungsfähiger und zuverlässiger zu machen.

Bei aller Begeisterung um diese Technologie zeichnet sich bereits jetzt ab, dass sie einen Preis hat. Dabei geht es nicht nur um die Kosten, die für die Nutzung, sondern auch um alle damit verbundenen Ressourcen, die es zu finanzieren gilt. In diesem Beitrag beleuchten wir einige der Kosten, die durch generative Intelligenz anfallen und nicht unbedingt offensichtlich sind.

Es sollte allerdings zunächst erwähnt werden, dass es keine generellen Angaben zu den Gesamtkosten geben kann, das diese enorm von den hier aufgeführten Kriterien abhängen. Unterschiedliche Quellen erheben durchschnittliche Kosten, die extrem voneinander abweichen. Das Unternehmen Akkio gibt Implementierungskosten von 25 US-Dollar pro Monat an, während die Decode-Agentur für eine individuelle KI-App-Entwicklung zwischen 6.000 und 500.000 US-Dollar zusammenrechnet. Andere Fachleute sehen die durchschnittlichen Kosten bei 50.000 bis 100.000 Euro (startup-creator.com) für die Entwicklung. Allerdings endet die Rechnung nicht bei der Entwicklung, sondern inkludiert weitere Faktoren wie Wartung, Training, Hosting und Bereitstellung.

Nutzungskosten

Die offensichtlichen Kosten für KI-Anwendungen sind die, die für die reine Nutzung der Lösung anfallen. Es gibt zwar zahlreiche kostenfreie Versionen – auch ChatGPT und Perplexity und zahlreiche andere Anbieter offerieren gratis Varianten als Einstiegsoption – für Nutzer, allerdings verfügen die Kaufversionen meist über einen höhere Funktions- oder Leistungsumfang. ChatGPT Plus beispielsweise gibt seinen Kunden schnellere Reaktionszeiten. Mit Copilot von Microsoft können Anwender innerhalb der Microsoft-365-Suite Anfragen stellen; die Lösung nutzt für ihren Output alle verfügbaren Daten in MS365 und erstellt einen so genannten semantischen Index. Andere Lösungen wie ChatSonic erlauben nur eine begrenzte Anzahl an Abfragen pro Monat, für zusätzliche Aufrufe muss der Nutzer bezahlen. Der Programmierbot von GitHub ist generell für alle Nutzer kostenpflichtig, ausgenommen für verifizierte Studenten und Lehrkräfte sowie Admins von populären Repositories bei GitHub selbst. 

Weitere Beispiele für kostenpflichtige KI-Applikationen sind unter anderem (alle Preise werden pro Monat berechnet):

  • ChatGPT Plus: 23,80 US-Dollar (rund 22 Euro)
  • Copilot für Microsoft 365: 28,10 Euro/Benutzer/Monat
  • Neuroflash: 30 Euro Standard, 80 Euro (Pro) 300 Euro (Business)
  • Chatsonic: ab 19 US-Dollar/15.000 Wörter/Monat
  • Perplexity Pro: 20 US-Dollar (oder 200 US-Dollar jährliche Abrechnung)
  • GitHub Copilot: 10 US-Dollar (oder 100 US-Dollar bei jährlicher Abrechnung) für individuelle Nutzer oder 19 US-Dollar/Nutzer/Monat für Business
  • Jasper Chat: 59 US-Dollar (Pro) oder 39 US-Dollar (Creator)
  • Claude 2: 20 US-Dollar
  • Article Forge: 13 US-Dollar für 25.000 Wörter, 27 US-Dollar (100.000 Wörter), 57 US-Dollar (250.000 Wörter), 127 US-Dollar (für 500.000 Wörter im Monat, jährliche Abrechnung für diese Version) Preise für die Business-Version (über 500.000 Wörter im Monat) müssen individuell erfragt werden.
  • ContentBot.ai: 1 US-Dollar (1.000 Wörter, einmalige Zahlung), 19 US-Dollar (Starter, 50.000 Wörter), 59 US-Dollar (Premium, 150.000 Wörter) 99 US-Dollar (Premium+, 400.000 Wörter)
  • Copysmith.ai: 228 US-Dollar (Starter, jährliche Abrechnung), 490 US-Dollar (Pro Annual, jährliche Abrechnung) Preise für die Enterprise-Edition müssen angefragt werden.
  • Hypotenuse AI: 29 US-Dollar (Individual, 50.000 Wörter) 59 US-Dollar (Teams, 120.000 Wörter) Preise für die Enterprise-Edition müssen angefragt werden.
  • Paragraph AI: 9,99 US-Dollar (Student), 12,49 US-Dollar (Professional) Preise für die Team-Edition müssen angefragt werden.
  • ChatPDF: 5 US-Dollar (für 120 Seiten/PDF, 10 MB/PDF, 3 PDFs/Tag, 50 Fragen/Tag)
  • Merlin: 14,25 US-Dollar/Monat (Starter, 6.000 Anfrage, jährliche Abrechnung oder 19 US-Dollar bei monatlicher Abrechnung), 19,6 US-Dollar (Boost, unlimitierte Anfragen, jährliche Abrechnung oder 49 US-Dollar bei monatlicher Abrechnung), 47,6 US-Dollar (Elite, unlimitierte Anfragen, jährliche Abrechnung oder 119 US-Dollar bei monatlicher Abrechnung) Preise für den Enterprise-Plan müssen angefragt werden.
  • Forefront AI: 99 US-Dollar (Team, 5 Nutzer) Preise für die Enterprise-Edition müssen angefragt werden.
  • Character.ai: 9,99 US-Dollar (noch in Beta-Version)
  • Gemini (früher Google Bard): 21,99 Euro (AI Premium)
  • OpenAI: Abrechnung erfolgt gestaffelt nach Anzahl der Ausführung und der Tokens und Wörter pro Ausführung ab. 0,01 US-Dollar bei 1.500 Wörtern und 2.700 Tokens (Einstiegspreis) bis zu 2,82 US-Dollar pro Ausführung bei 7,83 Millionen Wörtern und 14 Millionen Tokens pro Ausführung
  • Creaitor.ai: 19 Euro (Basic), 49 Euro (Standard) Preise für die Enterprise-Edition müssen angefragt werden.
  • Unbounce Smart Copy: 99 US-Dollar (Build), 149 US-Dollar (Experiment), 249 US-Dollar (Optimize), ab 649 US-Dollar (Concierge). Bei jährlicher Bezahlung sparen Anwender 25 Prozent der angegebenen Preise.
  • Mindverse: 39 Euro (Basic, 396 Euro bei jährlichem Bezahlmodell), 99 Euro (Premium, 996 Euro bei jährlichem Bezahlmodell), 199 Euro (Premium Plus, 1992 Euro bei jährlichem Bezahlmodell)
  • AISEO: 49,6 US-Dollar (Basic), 99,6 US-Dollar (Plus), 199,6 US-Dollar (Pro), 299,6 US-Dollar (Elite) Der Anbieter rechnet jährlich ab. 
  • Rytr: 9 US-Dollar (90 US-Dollar bei jährlicher Bezahlung, Saver Plan), 29 US-Dollar (290 US-Dollar bei jährlicher Bezahlung, Unlimited Plan)

Alle hier angegebenen Preise sind vom Stand Februar 2024.

Wie auch schon bei den Preisen für Cloud-Services erscheinen die Bezahlmodelle einfach und geradlinig, aber der Teufel steckt wie immer im Detail. Anwender tun gut daran, genauer auf die Funktionsliste und Nutzungsbeschränkungen zu achten. Bei Microsoft müssen Anwender beispielsweise eine Lizenz für Microsoft 365 innehaben oder erwerben, bevor sie Copilot nutzen können. Andere Anbieter verwenden Abrechnungskriterien wie Nutzer, Anfragen, Wörter pro Monat, Ausführungen oder Images. Oft ist eine Kombination verschiedener Parameter im jeweiligen Abo enthalten. Hier gilt es, genau zu wissen, was der Anwender erreichen möchte und welche Mittel hierfür die effizientesten sind. Das kann bedeuten, dass umfassende Tests mit den kostenlosen Versionen der KI-Assistenten nötig ist, bevor das Unternehmen sich endgültig für eine Anwendung entscheidet. Ebenso lohnt es sich zu prüfen, ob bei langfristiger Benutzung des Tools ein jährlicher Abrechnungsplan nicht günstiger ist. 

Die Anwendungskosten sind aber nicht der einzige Kostenfaktor, den es zu beachten gilt. Je nachdem, wie tief eine Firma in die KI-Nutzung einsteigen möchten, ergeben sich weitere Parameter für die anfallenden Investitionssummen.

Entwicklungskosten für eine KI-Anwendung

Oft ist das Testen verfügbarere KI-Tools für viele Unternehmen erst der Anfang der eigenen KI-Geschichte. In zahlreichen Fällen kristallisiert sich heraus, dass eine eigene Anwendung sinnvoller wäre, was bedeutet, dass diese für den spezifischen Anwendungsfall entwickelt werden muss, entweder vom Unternehmen selbst, mit Self-Service-KI-Produkten oder von einem externen Dienstleister. Das wiederum heißt, dass zusätzlich zu bereits angefallenen Nutzungskosten verschiedener KI-Modelle Entwicklungskosten anfallen, deren Höhe von unterschiedlichen Parametern abhängt.

Bevor die Entscheidung darüber fällt, wer die Entwicklung übernimmt, muss festgelegt werden, welche KI-Anwendung innerhalb der Organisation benötigt wird und ob diese nur intern oder auch auf externen (extern zugänglichen) Plattformen zur Anwendung kommt, beispielsweise bei einer E-Commerce-App auf der Unternehmenswebseite, dem Kundenserviceportal und Social-Media-Kanälen.

Zu den möglichen KI-Tools, für die sich Firmen entscheiden können, gehören unter anderem:

  • Chatbots und virtuelle Assistenten (beispielsweise für Kundenservice)
  • Prädiktive Analysen (für Planungshilfe im Marketing zum Beispiel)
  • Bilderkennung (beispielsweise für Qualitätsprüfung)
  • Natural Language Processing (NLP, beispielsweise für Stimmungsanalysen)
  • Empfehlungssysteme (zum Beispiel für die Optimierung von Kundenerfahrungen)
  • Autonome Fahrzeuge 
  • Betrugserkennung 
  • Robotik (Präzisionsoptimiereung zum Beispiel)
  • Personalisiertes Marketing (beispielsweise für Kundengewinnung/-bindung)
  • Spracherkennung (für sprachgesteuerte Systeme oder Transkriptionsservices zum Beispiel)

Unabhängig davon, wer die KI-Anwendung entwickelt, können Softwarekosten anfallen, da oft vorhandene Modelle genutzt werden, beispielsweise ChatGPT oder Gemini. Diese Kosten werden oft unterschätzt oder gar übersehen, obwohl sie durchaus signifikant sein können. So müssen die Daten oft kategorisiert und entsprechend für Trainingszwecke gekennzeichnet – oft mit manuellem Einsatz (mehr zu diesen Kosten im Kapitel Fachkräfte) – und bereinigt, organisiert und vorverarbeitet werden, was ebenso Software erforderlich macht. Je umfassender und komplexer das Data Set, desto höher die Softwarekosten.

Darüber hinaus kann es notwendig sein, dass das Unternehmen zusätzliche Daten erwerben muss, wenn die eigene Datenbank nicht als adäquate Trainingsquelle für die KI dienen kann. Hier gilt es zu beachten, dass sich die Daten für das Training eignen und rechtliche Vorgaben erfüllen.

Da die Kosten für die Entwicklung einer KI-Anwendung äußerst individuell sein können, bedienen wir uns hier eines Rechenbeispiels der Firma Kobold.ai. Diese berechnet die Kosten für die vier wichtigsten Kriterien der Entwicklung: 

  • Anwendungsfall identifizieren
  • Daten extrahieren
  • KI entwickeln
  • Erfolg evaluieren

Für die Eigenentwicklung eines KI-Prototypen gibt Kobold.ai 15.200 Euro an, die sich aus insgesamt 304 Stunden an Arbeitszeit verschiedener Experten ergeben, bei einem durchschnittlichen Stundenlohn von 50 Euro. Die Kosten bei einer Fremdentwicklung sieht das KI-Unternehmen bei 32.200 Euro in Zusammenarbeit mit internen Fachkräften. Die günstigste Option sieht die Firma in der Nutzung von Self-Service-KI-Produkten, bei der die Kosten laut der Berechnung bei nur 4.000 Euro liegen können. Die vollständigen Berechnungsbeispiele lassen sich hier nachlesen. Eine Übersicht für die Kostenzusammensetzung von Chatbots finden Sie beim Anbieter Moin.ai.

Diese Beispiele verdeutlichen, wie sehr allein schon die Entwicklungskosten je nach Unternehmen variieren können.

Hardwarekosten

Obwohl KI-Anwendungen Softwarelösungen sind, fallen auch Kosten für passende Hardware an, denn in den meisten Fällen stoßen die vorhandenen Hardwaresysteme bei langfristigem Einsatz der KI-App(s) an ihre Grenzen. IT-Entscheider müssen vor der Implementierung ihrer KI-Anwendung prüfen, ob die Hardware die Anforderungen bedienen kann und falls nicht, welche notwendigen Erweiterungen hinzugefügt werden müssen. In manchen Fällen kann auch ein Austausch oder eine Neuanschaffung von Hardwarekomponenten erforderlich sein.

KI-Anwendungen sind leistungshungrig und stellen entsprechende Anforderungen an die IT-Umgebung. Zu den entscheidenden Komponenten, auf die es in einer Hardwareumgebung für KI ankommt, gehören:

  • CPU
  • GPU
  • ASIC
  • FPGA
  • Storage
  • Netzwerk

Obwohl viele Unternehmen sicherlich vollständige Systeme für ihre KI-Umgebung bereitstellen, lohnt es sich einen Blick auf einzelne Komponenten zu lenken, um die Preisdynamik zu verstehen. In einigen Fällen kann es sich darüber hinaus empfehlen, einzelne Elemente eines Systems auszutauschen, um die Leistung zu optimieren. Hardware-Hersteller haben relativ schnell auf den KI-Hype reagiert und bieten entsprechend leistungsstarke Produkte an. 

CPUs verarbeiten Daten sequenziell und gehören zum Kern eines Systems. Bei CPUs sind Intel und AMD die Platzhirsche und lassen sich die KI-optimierten Prozessoren einiges kosten. So schlagen die verschiedenen CPUs der Xeon Max Series mit Preisen von 11.000 bis über 16.000 Euro zu Buche. Für die Platinum-Serie verlangt der Hersteller zwischen 7.500 und 13.000 Euro. Im gleichen Segment positioniert sich AMD mit den Threadripper-Pro-Produkten, die zwischen 10.000 und 12.000 Euro kosten. AMD kündigte Ende 2023 neue Prozessoren an, die AMD Radeon Instinct MI300X und AMD Radeon Instinct MI300A. Derzeit sind dafür noch keine Preise bekannt, aber auch diese CPUs werden sicher im hochpreisigen Segment liegen. Microsoft kündigte ebenso im Jahr 2023 an, eigene Prozessoren für KI-Umgebungen fertigen zu wollen. Das Produkt Maia 100 soll vor allem die Abhängigkeit des Unternehmens von den CPU-Herstellern zu beenden. Microsoft geht es hier weniger darum, die CPUs einzeln zu verkaufen, sondern sie vielmehr als Teil ihrer Cloud-Infrastruktur den Kunden zur Verfügung zu stellen. Auch diese Infrastrukturen werden dann entsprechend bepreist werden. Aus diesem Grund sind auch keine konkreten Preise verfügbar.

GPUs sind Grafikkarten, die für das Training neuraler Netzwerke essenziell sind, da sie mit ihrer Architektur Die Anforderungen des maschinellen Lernens an parallele Verarbeitung bedienen. In diesem Markt kommt der Anwender um NVIDIA nicht herum. Ein Modell der NVIDI A100 Tensor Core GPU kostet rund 17.000 Euro, aber der Preis kann je nach Modell auf bis zu 50.000 Euro klettern. Für die NVIDIA H100 Tensor Core (80 GB, PCIe 5.0, Bandbreite 2 TB/s, 350 Watt, 14592 Kerne) bezahlen Anwender rund 30.000 Euro

Neuere GPUs sind oft mit so genannten Tensor Processing Units (TPUs) ausgestattet. Tensor Processing Units (TPUs) sind Googles maßgeschneiderte Lösung für die Berechnungsanforderungen der KI. TPUs wurden speziell für das maschinelle Lernen mit neuronalen Netzwerken entwickelt und sind für Tensor-Berechnungen optimiert, die grundlegende Mathematik hinter vielen KI-Operationen. Das Unternehmen bietet TPU-Leistung auch als Cloud-Service an, für die Region europe-west4 bezahlen Cloud-Nutzer beispielsweise 1,386 US-Dollar pro Chipstunde bei einem Jahresabonnement oder 2,2000 US-Dollar bei Bedarfsnutzung. 

Ein weiteres Puzzlestück in der KI-Infrastruktur sind Neural Processing Units (NPU). Diese kommen zum Beispiel in der Intel Core CPU-Serie oder den AMD Ryzen 8040-Prozessoren zum Einsatz. Sie sind ausschließlich für neuronale Netzwerkberechnungen konzipiert. Diese Chips sind auf die Beschleunigung bestimmter KI-Aufgaben zugeschnitten und bieten Effizienzgewinne in Bereichen wie Bilderkennung und Verarbeitung natürlicher Sprache. Sie sind auch als Beschleuniger maschinellen Lernens und des Deep Learning bekannt. Sie sind in den meisten Fällen bereits in Lösungen integriert. Anwender sollten bei der Anschaffung ihrer Prozessoren nachfragen, ob TPUs oder NPUs als Beschleuniger Teil der Lösung sind.

Weitere Komponenten, die den Preis einer Gesamtlösung beeinflussen, sind ASICs und FPGAs. Auch sie dienen der Prozessbeschleunigung. Field Programmable Gate Arrays (FPGAs) sind integrierte Schaltungen mit einer programmierbaren Hardwarestruktur. Sie können unterschiedliche Aufgaben durchführen, für die sie sich individuell umprogrammieren lassen. Application-Specific Integrated Cicuits (ASICs) – zu deutsch Anwendungsspezifische integrierte Schaltungen – sind für eine bestimmte Funktion konzipiert und können nicht umprogrammiert werden. Es gibt strukturierte und zellenbasierte ASICs, wobei ein strukturierter ASIC ein Zwischenschritt zwischen FPGAs und zellenbasierten ASICs ist. Diese Komponenten können in der KI-Infrastruktur einen Unterschied machen. Die Kosten für FPGAs variieren stark, je nach Leistungsportfolio und können zwischen 250 und 1.500 Euro liegen. Das Gleiche gilt für ASICs, die verhältnismäßig günstig ausfallen können, vor allem wenn sie in hohen Stückpreisen erworben werden. Für die meisten Unternehmen spielt dies aber kaum eine Rolle, da diese Elemente bereits in vorgefertigten Lösungen vorhanden sind. Trotzdem ist es wichtig für IT-Entscheider zu verstehen, welche Teile der KI-Infrastruktur die Kosten treiben können.

Die Investitionen für Storage sind nur schwer im Allgemeinen zu beziffern, da sie stark von den individuellen Anforderungen abhängen. Storage-Systeme für KI-Umgebungen können schnell im sechsstelligen Bereich liegen, erst recht, wenn sich die IT-Verantwortlichen für HPC-Systeme entscheiden. Entscheidend für Storage für KI-Umgebungen ist, dass sie hohe Durchsatzraten, geringe LatenzSkalierbarkeit und Datenintegrität gewährleisten.

Das sind aber nicht die einzigen Kostenfaktoren im Speicherbereich. KI-Anwendungen stellen auch andere Herausforderungen an die Backup-Prozesse, was eventuell bedeutet, neue Backup-Software anschaffen zu müssen. Hinzukommen Kostenüberlegungen für Cloud-Storage-Dienste und Archivspeicher. Letzterer könnte durch KI-Anwendungen einen Anstieg an Archivdaten erfahren, da diese historischen Daten zu einem späteren Zeitpunkt erneut genutzt werden können. 

Letztlich gilt es auch die Kosten für die Netzwerkinfrastruktur zu beleuchten, die durch KI-Umgebungen beeinflusst werden. Es besteht durchaus die Möglichkeit, dass bestehende Netzwerkverbindungen nicht leistungsstark genug für das Datenaufkommen und den Datentransport sind, so das hier nachgebessert werden muss.

Die Hardwareinfrastruktur muss flexibel und schnell skalierbar sein, wobei es darauf ankommt, einzelne Komponenten unabhängig voneinander skalieren zu können, sonst entstehen hier ungewollte Kosten für nicht genutzte Ressourcen. Aus diesem Grund empfiehlt sich eine disaggregierte Architektur, um hardwareübergreifend die geringsten Latenzen und maximale Verbindungen zu erreichen.

Strom, Kühlung und Emissionen 

Derzeit gibt es noch keine wirklich belastbaren Zahlen, wenn es um die Stromkosten für künstliche Intelligenz geht. Es gibt einige Schätzungen und verfügbare Zahlen, mit denen sich ungefähre Kosten errechnen lassen. Laut Google verbraucht eine Google-Anfrage beispielsweise 0,3 Wattstunden. Dr. Dieter Kranzlmüller vom Institut für Informatik gibt den Stromverbrauch für eine ChatGPT-Anfrage mit 6,8 Wattstunden an, allgemeine Einschätzungen sehen den Stromverbrauch für eine KI-Anfrage bei zwischen 3 und 9 Wattstunden. IT-Anbieter Google schätzt, dass KI rund 10 bis 15 Prozent ihres Stromverbrauchs ausmacht, was pro Jahr etwa 2,3 Terawattstunden ausmacht. Es existieren weitere Prognosen, die den weltweiten Stromverbrauch von KI-Systemen bei 80 Terawattstunden im Jahr schätzen. Das entspricht dem jährlichen Energiebedarf von Ländern wie Holland, Schweden oder Argentinien.

Der Ökonom und Doktorand Alex de Vries wird derzeit häufig mit seiner Aussage zitiert, dass Google-Anfragen weitaus mehr Strom benötigen, wenn sie ausschließlich KI verwenden. Bei 9 Milliarden Anfragen pro Tag würde dies in rund 30 Terawattstunden pro Jahr resultieren. Dies wiederum ist der Energiebedarf Irlands. Darüber hinaus schätzt de Vries, dass große Sprachmodelle wie GPT-3, Gopher oder Open Pretrained Transformer 1.287, 1.066 beziehungsweise 324 Megawattstunden für das Training ihrer Anwendungen benötigen. Setzen sich also immer mehr KI-Anwendungen in den Rechenzentren durch, kann dies laut Hasso-Plattner-Institut dazu führen, dass Rechenzentren weltweit 30 Prozent des globalen Stromverbrauchs für sich beanspruchen. Derzeit liegt der Wert bei zwischen 4 und 5 Prozent, Laptops und Smartphones nicht mitgerechnet.

Laut einer Studie des Herstellers Pure Storage sind die meisten Unternehmen nicht auf die großen Energiebedarfe durch KI vorbereitet. In der Studie sagten 88 Prozent der Befragten, dass die Integration künstlicher Intelligenz den Stromverbrauch in die Höhe schnellen ließ: Fast die Hälfte dieser Anwender verzeichneten eine Verdopplung des Energiebedarfs. Demgegenüber stehen 73 Prozent der Umfrageteilnehmer, die mit diesen Anforderungen nicht gerechnet hatten. Dementsprechend planen nun 96 Prozent der befragten IT-Verantwortlichen, ihre Infrastruktur zu aktualisieren. Mit den explodierenden Energieanforderungen sehen sich die Firmen weiter unter Druck gesetzt, da dies die Nachhaltigkeitsziele beeinträchtigt.

Bei diesen Betrachtungen geht es meist um den Stromverbrauch, der für Trainingszwecke benötigt wird. Diese Perspektive ist allerdings zu kurz gefasst, denn KI-Apps verbrauchen auch nach dem Training, also bei der täglichen Nutzung, Strom. Laut einer Untersuchung von SemiAnalysis werden für den Betrieb von Chat-GPT in der Inferenzphase 3.617 Server gebraucht, die 28.936 Grafikprozessoren umfassen. Das entspricht einem täglichen Energiebedarf von 564 Megawattstunden. Für das Training von GPT-3 waren insgesamt 1.287 Megawattstunden nötig.

Wer die Rechnung selber machen möchte, muss unter anderem wissen, wie viele Grafikkarten und CPUs für die KI zum Einsatz kommen. Im Schnitt verbrauchen GPUs bis zu 350 Watt, CPUs zwischen 150 und 200 Watt. Darüber hinaus benötigen diese Komponenten auch im Ruhezustand (Idle) Strom, Grafikkarten beispielsweise zwischen 4,2 und 78,6 Watt.

Strom ist nicht der einzige Faktor, der bei den KI-Kosten zubuche schlägt; auch Wasser muss in die Kostenrechnung mit einfließen. Forscher der Universität von Texas haben hierzu eine Studie angefertigt, um auf die versteckten Kosten von KI-Umgebungen hinzuweisen. Ihrer Einschätzung nach verbraucht ChatGPT einen halben Liter Wasser pro Gespräch, das Training des Modells verlangte etwa 700.000 Liter Wasser. Supercomputer wie der von OpenAI, der aus 10.000 Grafikkarten und 285.000 Prozessorkernen besteht, wird somit neben Stromkosten auch den Kühlungsbedarf vergrößern, wofür vor allem auch Wasser zum Einsatz kommt. Oft handelt es sich um Trinkwasser, das verwendet wird, um Korrosion und Bakterien bei den Systemen zu vermeiden. Es wird erwartet, dass neuere KI-Modelle noch mehr Wasser benötigen.

Ein weiterer Faktor, der auf den ersten Blick zwar keine Kosten erzeugt, auf den zweiten Blick aber problematisch werden kann, sind die Emissionen, die mit dem Einsatz von KI-Anwendungen einhergehen. So schätzt die US-Forscherin Emma Strubel in einer Abhandlung, dass das Training von Sprachmodellen ungefähr so viel CO2 ausstößt, wie fünf Verbrennerautos oder zwei Drittel dessen, was ein Mensch in seiner Lebenszeit verursacht. Laut den Einschätzungen von Wissenschaftlern der Berkeley-Universität kommt GPT-3 von OpenAI auf 552 Tonnen an Emissionen. Eine erste Version des Bildgenerators Stable Diffusion wurde 200.000 Stunden lang in Amazons AWS-Rechenzentren trainiert und soll dabei 15 Tonnen CO2-Äquivalent erzeugt haben. Das Unternehmen Hugging Face veröffentlichte unlängst nicht nur den Energieverbrauch des eigenen Sprachmodells BLOOM. Laut ihren Schätzungen stieß das Training des Modells 25 Tonnen CO2 in die Luft, 50 Tonnen, wenn man die Herstellung der Komponenten und der dahinterliegenden Computer-Infrastruktur mitrechnet.

Es gibt Schätzungen, dass der weltweite IT-Sektor derzeit für 2 bis 4 Prozent der Treibhausgasemissionen verantwortlich ist. Momentan nehmen KI-Anwendungen hier nur einen geringen Anteil ein, aber hier ist mit einem weiteren Anstieg zu rechnen und dies könnte langfristig auch zusätzliche Kosten für Firmen erzeugen. Die Debatte um Klimaerwärmung und wie man dieser entgegenwirken kann ist in vollem Gange und es werden Regularien wie eine CO2-Steuer oder europäische Regeln in Erwägung gezogen. Unternehmen, die sich dann nicht an Emissionsvorgaben halten, sehen sich dann Strafgeldern gegenüber. 

Personalkosten

Ein großer Kostenfaktor ist zudem der Personalaufwand. Die endgültigen Kosten variieren natürlich je nach Region, Arbeitserfahrung des Angestellten und welche Fachkräfte das Unternehmen benötigt. Fachkräfte sind generell nicht günstig und die Personalkosten im KI-Bereich könnten weiterhin steigen. Das Handelsblatt sieht die Gehaltschancen für einen KI Prompt Engineer bei bis zu 300.000 Euro im Jahr, auch wenn die Einstiegsgehälter bei etwa 60.000 bis 90.000 Euro liegen. KI-Berater können demnach mit bis zu 350.000 Euro pro Jahr rechnen, Juristen und Ethiker für KI mit bis zu 200.000 Euro.

Die Plattform Stepstone schätzt das Jahresgehalt für einen KI-Entwickler bei zu 100.000 Euro. Für KI-Projektmanager müssen Firmen jährlich bis zu 120.000 Euro investieren, Data Scienists für KI verdienen bis zu 100.000 Euro jährlich und Sales Manager bis zu 120.000 Euro.

Unternehmen die lieber die eigenen Mitarbeiter mit erweiterter Expertise ausstatten wollen, müssen die Schulungskosten im Auge behalten. Einige Kurse für die Grundlagen der KI sind kostenlos, wie beispielsweise bei KI Kurs. Andere werden staatlich gefördert und Firmen können hier ihre Investitionen in die eigenen Fachkräfte reduzieren. Die Haufe Akademie bietet unterschiedliche Trainings für KI-Fachkräfte an. Die Kosten können hier bei rund 300 Euro bis 4.000 Euro liegen. Neben den initialen Kosten für das Training an sich, müssen Unternehmen auch beachten, dass der jeweilige Mitarbeiter eventuell für einige Zeit nicht verfügbar ist, da Zeit für das Training erforderlich ist, in manchen Fällen kommen Reisekosten hinzu, wenn eine Präsenzschulung an einem anderen Standort stattfindet.

Darüber hinaus sollten Firmen prüfen, ob das jeweilige Training mit einer Zertifizierung, beispielsweise vom TÜV, endet. Das kann den Wert des Mitarbeiters steigern. Hinzu kommt, dass der jeweilige Angestellte nach seiner Schulung mit einer Gehaltserhöhung rechnen kann, da er zusätzliche Expertise ins Unternehmen bringt.

Weitere Faktoren

Es gibt zusätzliche Parameter, die die Kosten für den KI-Einsatz erhöhen können und auf den ersten Blick nicht ersichtlich sind. Dazu gehören unter anderem die Art und Komplexität der Daten und der notwendigen Infrastruktur. Die Zeit für die Bereitstellung der KI-Umgebung sowie die Anzahl an Anwendungen und Systemen spielen ebenso eine Rolle wie das eigentliche Hosting und der Betrieb der KI-Umgebung.

Fazit

Es gibt keinen endgültigen Richtwert für die Kosten einer KI-Umgebung. Vielmehr sollten sich Unternehmen bewusst sein, dass mehr Investitionen nötig sind als reine Hardware-, Entwicklungs- und Bereitstellungskosten. Wenn IT-Entscheider sich der komplexen Zusammensetzung der Kosten bewusst sind, können sie fundierte Entscheidungen für die Kostenberechnung und somit für das Budget treffen.

Aus diesem Grund ist es ratsam, KI-Projekte nicht überschnell anzugehen, sondern unternehmensübergreifend einen Plan erarbeiten, der alle möglichen Kostenfaktoren umfasst. Auch die Risiken einer Fehlinvestition lassen sich so minimieren und eine reale Kosten-Nutzen-Analyse durchführen. 

Erfahren Sie mehr über Cloud Storage

ComputerWeekly.de
Close