vchalup - stock.adobe.com

Auf dem Weg zur KI: künstliche Intelligenz produktiv nutzen

Ein KI-Modell in den produktiven Betrieb zu überführen ist alles andere als trivial. Eine technisch leistungsfähige Produktionsinfrastruktur ist hierfür notwendig.

Viele Proof of Concepts mit künstlicher Intelligenz (KI) von spezialisierten Start-ups oder IT-Dienstleistern wecken bei den ersten Vorführungen Begeisterung, scheitern aber, sobald es in die Produktion geht. Ein KI-Modell in die Produktion zu überführen ist in einer herkömmlichen IT-Umgebung alles andere als trivial. Eine technisch leistungsfähige Produktionsinfrastruktur ist notwendig: Server mit kostspieligen GPUs, die komplexe und robuste Netzwerkkonfigurationen unterstützen. Hier liegt der Schlüsselfaktor für die tatsächlichen Kosten der Einrichtung und Aufrechterhaltung der Betriebsbereitschaft dieser Architekturen mit verteilter Rechenleistung.

In zahlreichen Branchen werden KI-Projekte immer komplexer und zahlreicher. Entsprechend steigt der Bedarf an einem schnell industrialisierten Lebenszyklus der Modelle nach dem MLOps-Ansatz. Damit soll verhindert werden, dass der Workload für Bereitstellung und Wartung der Modelle unkontrollierbar wird. Wie die Daten vorab aufbereitet werden müssen und welche Aspekte bei der Entwicklung und dem Training wichtig sind, wird im ersten und zweiten Teil dieser Artikelserie beschrieben.

Ein gemanagter Cloud-Dienst ermöglicht die unkomplizierte Bereitstellung von Software-Containern mit KI-Modellen auf einer hochverfügbaren Infrastruktur. Eine solche Lösung erleichtert Deployments von Modellen und gewährleistet die Verfügbarkeit eines Modells rund um die Uhr – zum Beispiel für die Empfehlungen von Webseiten, die Stimmungsanalyse für Chatbots oder die automatische Erkennung von Produkten für Händler.

Darüber können die Dienste die Versionierung der in Produktion befindlichen Container organisieren: Mehrere Versionen eines Containers lassen sich verwalten und für eine Rückkehr zu einer früheren Version nutzen (Rollback). Das ist von Vorteil, wenn die neue Version eines Modells nicht zuverlässig funktioniert oder die Leistung hinter den Erwartungen zurückbleibt. Die Updates müssen nach dem sogenannten Rolling-Upgrade-Verfahren erfolgen, bei dem ein Deployment inkrementell aktualisiert wird, sodass keine Dienstunterbrechungen entstehen.

Auf die Hardware kommt es an

Wie die Trainingsphase erfordert die Produktion der KI-Algorithmen eine angemessene Hardware-Infrastruktur. Wichtig dabei ist eine ausreichende Rechenleistung, die jedoch im Rahmen des Budgets bleibt. Denn es besteht das reale Risiko, dass die Investitionsrendite (ROI) eines Projekts wegen der Kosten für die Infrastruktur zusammenschmilzt.

GPU-Instanzen dienen dazu, die Lernzeit von Modellen zu verkürzen; gleichzeitig werden sie für Algorithmen mit geringer Latenz gebraucht. Insbesondere für Chatbots ist dies wichtig, wenn sie Internetnutzerinnen und Nutzer direkt antworten müssen, oder auch für einen Algorithmus, der in Echtzeit Industrieprozesse optimiert. Diese für die Rendite entscheidende Phase wird zu Beginn eines Projekts oftmals kaum bedacht. Die Cloud bietet ein Wirtschaftsmodell und technische Tools für den gelungenen Produktionsstart von Algorithmen.

Stefan Schäfer, OVHcloud

„Cloud-Anbieter müssen darlegen können, woher sie die Energie für ihre Rechenzentren beziehen, wie sie Elektroschrott entsorgen und Altgeräte wiederverwerten.“

Stefan Schäfer, OVHcloud

Bei gleicher Leistung bestehen zwischen den Cloud-Anbietern erhebliche Preisunterschiede, vor allem im Fall von Produkten mit hohem Mehrwert wie GPU-Instanzen. Die Listenpreise können bei gleicher Rechenleistung leicht das Doppelte betragen. Außerdem gibt es zahlreiche versteckte Kosten. Die am weitesten fortgeschrittenen Unternehmen gehen diese Mehrkosten an und verfolgen ihre Cloud-Strategie mit ihrem ursprünglichen Cloud-Anbieter. Die Rechenleistung beziehen sie jedoch von einem weiteren Anbieter mit günstigeren Preisen.

Es handelt sich um eine zunehmend gängige Praxis bei Unternehmen, deren Cloud-Anbieter nicht immer die wettbewerbsfähigsten Preise für hochklassige Produkte wie GPU-Instanzen anbietet. In der Anfangsphase eines Projekts werden zum einen rein technische Aspekte berücksichtigt, wie die CPUs der Anbieter. Zum anderen gilt es bereits hier, auf das Preis-Leistungs-Verhältnis potenzieller Cloud-Anbieter zu achten.

Best Practices für den KI-Einsatz

Empfohlene Maßnahmen für eine erfolgreiche KI-Produktion sind:

  • Algorithmen so nah wie möglich zu den Daten bringen: Künstliche Intelligenz nimmt eine enorme Rechenzeit in Anspruch. Für die optimale Ressourcenverwendung ist es daher wichtig, dass die Rechenressourcen sich in demselben Rechenzentrum wie die Daten befinden.
  • Die Modellinferenz so nah wie möglich beim Endanwendern einsetzen: Dadurch erhalten sie die beste Performance.
  • Workload-Simulation ist unabdingbar: Dies dient dazu, die Kapazität des Modells bei der aktiven Nutzung zu testen und seine Leistung in der Produktion zu optimieren.
  • Detaillierte Leistungsmetriken als Basis für das Optimieren der Inferenzen: Workload und Auslastung der Maschinen sowie die Latenzen des Netzwerks müssen bekannt sein. Auf dieser Grundlage lässt sich der ideale Service Level erreichen.
  • Transparente Abrechnung der Cloud-Dienste: Einige Anbieter fügen ihren Rechnungen etliche Posten hinzu. Transparente Anbieter rechnen ausschließlich nach tatsächlichem Verbrauch ab und bieten die Möglichkeit, Kosten vorab zu kalkulieren.

Die Umweltbilanz von KI

Ein weiterer Aspekt, der in Zukunft bei der Wahl des Technologiepartners an Relevanz gewinnen wird, ist die Umweltverträglichkeit der KI. Nichtregierungsorganisationen und Forscher machen bereits darauf aufmerksam, welchen Einfluss KI auf die Umweltbilanz der gesamten IT hat.

Vor einigen Jahren wiesen zum Beispiel Forscher der Amherst University in Massachusetts darauf hin, dass das Training des Algorithmus GPT-2 von OpenAI 282 Tonnen CO2-Äquivalent erzeugte. Dies entspricht dem jährlichen Stromverbrauch von 126 amerikanischen Haushalten. Das Anlernen und Betreiben von KI-Modellen nimmt in der Tat enorme Rechenressourcen in Anspruch, dies müssen Unternehmen in ihrer KI-Strategie berücksichtigen. Die Rechenoperationen für Training und Betrieb wirken sich unmittelbar auf die CSR-Bilanz (Corporate Sustainability Reporting) des Unternehmens aus.

Moderne GPUs führen Rechenoperationen in immer kürzerer Zeit durch und tragen so dazu bei, KI energieeffizienter zu nutzen. Aber das allein reicht nicht. Der Umweltaspekt muss bei der Wahl der Technologiepartner berücksichtigt werden: Cloud-Anbieter müssen darlegen können, woher sie die Energie für ihre Rechenzentren beziehen, wie sie Elektroschrott entsorgen und Altgeräte wiederverwerten. Idealerweise ist der Cloud-Anbieter in der Lage, die monatlichen CO2-Emissionen der Dienste auszuweisen, die ein bestimmter Kunde nutzt. Es liegt heute an jedem Unternehmen, die eigenen Umweltauswirkungen so gering wie möglich zu halten. Dazu gehört auch der in jeder Hinsicht nachhaltige Einsatz von KI.

Über den Autor:

Stefan Schäfer ist Experte für Produktmanagement, IT und Marketing und arbeitet seit rund 15 Jahren in der Cloud Computing Branche. Beim europäischen Cloud Provider OVHcloud verantwortet er das Produktmarketing in der Region Central Europe.

 

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

Erfahren Sie mehr über Künstliche Intelligenz (KI) und Machine Learning (ML)

ComputerWeekly.de
Close