tippapatt - stock.adobe.com

Wie CIOs die Anwendungsentwicklung mit KI produktiv angehen

CIOs sollten eine Strategie für KI-Anwendungen entwickeln. Dabei müssen sie sicherstellen, dass Ressourcen effektiv eingesetzt und gewünschte Ergebnisse erzielt werden.

Künstliche Intelligenz (KI) wird heute in der Öffentlichkeit facettenreich diskutiert – nicht zuletzt die Potentiale von Diensten wie ChatGPT und DALL-E sind von stetigem Interesse und geben dem Diskurs neue Impulse.

Dabei hat KI viel mehr zu bieten als das Schreiben von Texten im Schul- und Universitätskontext und die Kreation abstrakter oder außergewöhnlicher Kunstwerke. KI kann einen erheblichen Einfluss auf die Industrie haben, da sie Unternehmen ermöglicht, Anwendungen wie Computer Vision, Natural Language Processing (NLP) und Warenempfehlungssysteme zu implementieren und zu nutzen. CIOs stehen vor der Herausforderung, entscheiden zu müssen, welchen Ansatz sie bei der Entwicklung unternehmensinterner KI-Anwendungen verfolgen wollen, um diese effektiv zu nutzen.

Mit KI ein vielfältiges Anwendungsportfolio erschließen

KI bietet viele Anwendungsmöglichkeiten. Im Automobilsektor ermöglicht Computer Vision beispielsweise die Nutzung automatischer Sicherheitssysteme. So werden Fußgänger frühzeitig erkannt und Unfälle verhindert. Ein weiterer Vorteil liegt in der erleichterten Sprachsteuerung im Fahrzeug durch Natural Language Processing. Auch in der Produktion und Fertigung können Anwender von KI profitieren. Computer Vision kann einerseits die Qualitätskontrolle verbessern und andererseits anhand erkannter Paarmeter proaktive Wartungsmaßnahmen vorschlagen, noch bevor Fehler in der Herstellung passieren.

Auch im Einzelhandel und im Finanzsektor bewährt sich KI. Durch automatische Produkt- und Kundenerkennung werden Kassensysteme rationalisiert und ungewöhnliche Transaktionen erkannt. Das kann Betrug verhindern. Weitere Vorteile der KI zeigen sich bei medizinischen Unternehmen. Hier gelingt es mit ihrer Unterstützung, die Geschwindigkeit und Genauigkeit von Diagnosen zu verbessern.

Jedes Unternehmen kann zudem mit KI das Suchen und Auffinden von Informationen innerhalb der eigenen Unternehmensstruktur verbessern – und zwar in Umfang und Qualität. Das Resultat: Wertvolle interne Daten sind leichter zu finden und können zielgerichteter genutzt werden.

KI und Machine Learning greifen ineinander

Der Lebenszyklus des Machine Learnings lässt sich in zwei Hauptphasen unterteilen: Training und Inferencing – also Schlussfolgerungen aus vorliegenden Daten ziehen. In der Trainingsphase werden riesige Datenmengen erfasst. Die KI wird implementiert, um bestimmte Muster zu erkennen und daraus resultierende Modelle zu erstellen. Hier kommen Server von Hochleitungsrechenzentren zum Einsatz, die mit den besten und leistungsfähigsten Prozessoren von Unternehmen, die hier als Thought Leader agieren, ausgestattet sind und auf entsprechend ergiebige Data-Center-Acceleratoren zurückgreifen. In der Auswertungsphase wird das Modell auf reale Daten angewandt, um ein verwertbares Ergebnis zu erzielen. Dabei kommt entweder ähnliche Hardware wie in der Trainingsphase zum Einsatz oder es werden eingebettete Geräte genutzt.

Daten schaffen Grundlage für leistungsfähige KI

Für die Entfaltung der vollen Leistungsfähigkeit benötigen Anwendungen, die auf KI beruhen, umfassende Modelle, die wiederum aus umfangreichen Datenmengen abgeleitet und aufgesetzt sind. Es zeigt sich zwar, dass vorkonfigurierte Tools heute erhebliche Fortschritte gemacht haben, wenn es um die Bereitstellung von Modellen geht, die auf öffentlichen oder kommerziell beschafften, externen Daten basieren. Allerdings sind die wertvollsten Daten für ein Unternehmen oft interne Informationen. Um auf diese Daten zugreifen und sie nutzen zu können, ist eine interne Entwicklung gefragt, bei der der Einsatz des effizientesten Hardware- und Software-Ökosystems von entscheidender Bedeutung ist.

Die Relevanz der Erkenntnisse, die eine KI-Anwendung liefert, ist dann gesichert, wenn die ihr zugrunde liegenden Modelle anhand der unternehmenseigenen Daten angepasst werden. Dadurch liefert die KI Ergebnisse, die passgenau die Bedürfnisse des Unternehmens erfassen.

Mit Blick darauf, dass KI inzwischen allgegenwärtig ist, liegt die Vermutung nahe, dass eine Mischung aus Ansätzen, die auf öffentlichen SaaS-Lösungen (Software as a Service) und internen Anwendungen basieren, die besten Ergebnisse liefern. Der Schlüssel dazu ist ein konsistenter Zugang über die für Training und Schlussfolgerungen verwendeten Stacks. Entsprechende Technologien sollten hierfür einen Weg zu den branchenüblichen KI-Frameworks bieten. Diese können wiederum nahtlos in einen CPU-Stack, einen softwaregesteuerten GPU-Stack oder eine KI-Plattform für einen Embedded Stack integriert werden.

Entwicklung und Implementierung von KI-Apps benötigen fundierte Strategie

CIOs stehen vor der Herausforderung, eine Strategie für Investitionen in KI-Apps zu entwickeln. Dabei gilt es sicherzustellen, dass die Ressourcen effektiv eingesetzt werden und die gewünschten Ergebnisse erzielt werden. Der Nutzen, den eine Implementierung von KI erzielt, lässt sich primär an Faktoren wie Verbesserungen der Prozesseffizienz, der Produktivität und der Widerstandsfähigkeit der IT-Infrastruktur ablesen. Eng damit verbunden ist der Anspruch an die CIOs, die beste Architektur für ihre Lösung zu wählen, die sich schnell implementieren lässt. Deshalb ist es so wichtig, eine breite Palette von KI-Stacks zur Auswahl zu haben.

Die Einbindung einer KI-App in die unternehmerischen Abläufe stellt keine Momentaufnahme dar. Denn es ist ebenfalls in der Hand der CIOs, für die Analyse etwaiger Folgewirkungen den gesamten Lebenszyklus der App zu betrachten. So stellen sie mit Langzeiteffekt sicher, dass die App sicher verwaltet wird. Dies ist unabdingbar, um verantwortungsvoll mit der Innovation umzugehen und um sie entsprechend der Datenschutzbestimmungen und unternehmensübergreifenden Rahmenvereinbarungen zum Umgang mit neuen Technologien zu handhaben. Diese Umsichtigkeit ist bei KI-Modellen besonders relevant, da sie höchstwahrscheinlich auf sensiblen und/oder geschützten Daten basieren, deren Sicherheit höchste Priorität eingeräumt werden muss.

Um diesen Anforderungen gerecht zu werden, sollten CIOs in die Bereiche investieren, die wirklich von Nutzen sind und die die Produktivität nachhaltig verbessern.

Algorithmen als Basis aller Innovation

Die Algorithmen, die den KI-Modellen zugrunde liegen, sind sowohl zeit- als auch kostenintensiv und abhängig von der Verfügbarkeit immer größerer Datensätze. Hier ist die Expertise von KI-Fachkräften, die mit einer Vielzahl von Anwendungsfällen arbeiten können, gefragt. Vor diesem Hintergrund zeigt sich deutlich, warum eine konsistente, einheitliche Plattform unerlässlich ist. Die Parameter, die für die Modelle relevant sind, sind in nur einem Jahrzehnt von Tausenden auf Hundertmilliarden angewachsen – dies stellt einen enormen exponentiellen Anstieg dar.

Das Training eines Modells mit so vielen Parametern benötigt zum einen ausreichend große Datenmengen, zum anderen eine gewissenhafte Datenverwaltung. Darüber hinaus ist es von grundlegender Bedeutung, Datenverzerrungen zu vermeiden, da diese die Ergebnisse verfälschen. Dies ist ein häufiger Kritikpunkt an generischen KI-Implementierungen, die auf externen Datensätzen basieren. Um diese Verzerrungen zu korrigieren, ist eine umfangreiche Kuratierung erforderlich. Für eine funktionierende und umfassende Modellschulung sollten daher genügend Zeit und Ressourcen bereitgestellt werden. 

Führungskräften kommt im Innovationskontext eine Schlüsselrolle zu

Die wichtigsten Entscheidungsträger bei der Entwicklung einer KI-Investitionsstrategie für Unternehmensanwendungen sind die Führungskräfte. Sie müssen Einsatzfelder von KI identifizieren, Anwendungsfälle inventarisieren und Risikostufen kategorisieren. Auf dieser Basis fällen sie dann ein Urteil darüber, wie ausgereift die vorhandenen KI-Lösungen für ihre Anforderungen sind. Wenn diese bereits etabliert sind und über facettenreiche Funktionen verfügen, besteht keine Notwendigkeit, maßgeschneiderte interne KI-Anwendungen von Grund auf neu zu entwickeln.

Matt Foley, AMD

„Der Nutzen, den eine Implementierung von KI erzielt, lässt sich primär an Faktoren wie Verbesserungen der Prozesseffizienz, der Produktivität und der Widerstandsfähigkeit der IT-Infrastruktur ablesen.“

Matt Foley, AMD

In jedem Fall gewährleistet der Einsatz einer flexiblen bestehenden Plattform und optimierter Bibliotheken ein hohes Maß an Agilität: Die Vorteile von erprobten Codes können mit geschäftsspezifischen Anpassungen auf der richtigen Plattform kombiniert werden, um dem Investitionsaufwand zu entsprechen.

KI am Beginn eines neuen Big-Data-Lebenszyklus

Auch wenn sich KI noch in der Phase der early adoption befindet, hat sie bereits Höhen und Tiefen durchlaufen. Die heutige KI mit den zuvor beschriebenen Potentialen verspricht einen Neuanfang basierend auf extrem großen Modellen und umfangreichen Datensätzen und kann vor diesem Hintergrund als die Big-Data-Phase für KI-Lösungen aufgefasst werden. Dazu zählen sowohl intern entwickelte Anwendungen als auch von der Industrie bereitgestellte Anwendungs-Frameworks, die sich in der Wachstumsphase befinden.

Hier lässt sich ein positiver Kreislauf ausmachen. Die zunehmende Nutzung von KI in Unternehmen führt zu besseren Anwendungen, was wiederum bedeutet, dass bessere Frameworks entwickelt werden, die die Effizienz der Geschäftsprozesse steigern. Diese Verbesserungen und Vorteile werden die Anwendungsentwicklung weiter beschleunigen, den Nutzen erhöhen und die Kosten für die Einführung senken. Dies unterstreicht: Sobald die Vorteile die Kosten überwiegen, sollten KI-gestützte Apps auf der Agenda eines jeden CIOs stehen.

Über den Autor:

Matt Foley hält die Position des Director Field Application Engineering für die EMEA-Region bei AMD. Als Führungskraft im Technologiesektor verfügt er über breitgefächerte Erfahrung in allen Phasen der Produktentwicklung, des Vertriebs und des technischen Presales. Er ist spezialisiert auf Hybrid-Cloud-Lösungen, OEM-Verkauf von Computerhardware, Server-Produktentwicklung, NFV-i und technisches Kundenmanagement. Mit seinen technischen Kompetenzen war Matt Foley zuvor in der gesamten EMEA-Region in ähnlichen Bereichen tätig und sammelte über 10 Jahre Managementerfahrung, bevor er seine aktuelle Position bei AMD als Director of EMEA Field Application Engineering antrat.

 

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

Erfahren Sie mehr über Softwareentwicklung

ComputerWeekly.de
Close