NicoElNino - stock.adobe.com

Das müssen Sie bei der Einführung von Analyse-Tools beachten

Die Analyse spielt in vielen Unternehmen eine wichtige Rolle. Experten erklären die größten Herausforderungen, vor denen Firmen stehen, wenn sie neue Analysestrategien einsetzen.

Ohne Analyse können heute keine klugen Geschäftsentscheidungen mehr getroffen werden. Aber nicht jedes Projekt zur Umsetzung einer neuen Analysestrategie ist erfolgreich. Je umfassender das Projekt, umso größer die Hindernisse.

Laut einer Umfrage des Datenanbieters Appen vom Juni 2020 unter Führungskräften von Technologieunternehmen betrachteten 75 Prozent von ihnen künstliche Intelligenz als entscheidend für den Erfolg ihres Unternehmens. Fast die Hälfte von ihnen sagte aber auch, dass ihr Unternehmen bei Thema künstliche Intelligenz hinterherhinkt.

In einem Bericht von IDC wird geschätzt, dass fast ein Drittel (28 Prozent) aller Initiativen zum Thema künstliche Intelligenz und maschinelles Lernen scheitern. IDC zufolge scheitern diese Projekte hauptsächlich aufgrund unzureichender Daten. Ein weiteres großes Problem sei die mangelnde Unterstützung der Beteiligten.

Jede Menge Daten, aber keine werden analysiert

Steve Strohl, Senior Managing Consultant für innovative digitale Dienste bei Insight, arbeitete mit einem großen US-Hersteller an einem Projekt zur Umsetzung einer neuen Analysestrategie und stieß dabei auf ein massives Datenproblem.

„Dieses Unternehmen hatte 50 bis 60 unterschiedliche Quellsysteme und jedes davon wurde wie ein anderes Land geführt“, sagt er.

Einige Systeme hatten eine exzellente Datenqualität, bei anderen war diese quasi inexistent.

„Diese ganzen unterschiedlichen Daten zusammenzubringen, kann eine große Herausforderung sein“, so Strohl. „Wir hatten 150 verschiedene Schreibweisen für ein und denselben Kunden – und sie wurden in den Systemen als verschiedene Kunden behandelt. Wir hatten keine Möglichkeit, diesen Kunden mit einem anderen System innerhalb des Unternehmens zu verbinden.“

Diese Firma verschwendete über ein Jahr und zwischen einer Viertel und einer halben Million Dollar und musste letztendlich einen Schritt zurück machen und zunächst einmal ein Projekt zur Datenqualität durchführen. Das Unternehmen stellte konsistente Regeln auf, um einen soliden Rahmen für die Daten zu schaffen, und räumte dann auf.

„Die Analyse ist nur so gut wie die Quelldaten, mit denen Sie arbeiten“, betont Strohl.

Venkatesan Sukumaran, Head of Business Analytics bei Tata Consultancy Services, stand bei einer australischen Bank vor einem ähnlichen Problem:

„Der Anteil unstrukturierter Daten in den Unternehmen war angewachsen, da die Datenquellen mit unstrukturierten Daten in die Höhe schossen“, erklärt Sukumaran.

Einige Daten kamen auch von externen Partnern. Diese gestiegene Komplexität und die Nebenkosten machten einen Kurswechsel erforderlich, so Sukumaran. Die Bank schaute sich nach anderen Möglichkeiten zur Behebung des Problems um und beschloss, die Daten und die Analyse in die Cloud zu verlegen, was sich auf die Kosten für die Speicherung, die Geschwindigkeit und die Kosten der Verarbeitung sowie die Vorlaufzeit auswirkte.

„In allen drei Bereichen wurden messbare Ergebnisse erzielt“, berichtet Sukumaran.

Eine andere Bank in Europa setzte eine Analyse ein, um festzulegen, welche Finanzprodukte oder -dienstleistungen welchen Kunden angeboten werden sollten.

„Sie hatten sehr viele Produkte, jedes davon nutzte ein anderes System, und die Systeme interagierten nicht immer miteinander“, so Sukumaran. „Die Analyse fand also nicht auf den Kunden optimiert statt.“

So wird zum Beispiel einem Kunden ein Produkt angeboten, aber der Kunde erfüllt die Risikokriterien der Bank nicht oder der Preis war für den Kunden unangemessen. Die Bank konnte das unmittelbare Datenproblem mit Hilfe eines Projekts zu maschinellem Lernen lösen, bei dem eine einzige Ansicht des Kunden geschaffen wurde.

Um das größere Problem zu lösen – eine mangelnde kohärente unternehmensweite Datenstrategie – schuf die Bank den neuen Posten des Chief Data Officer.

„Auf diese Weise konnten die Prozesse zentralisiert und standardisiert werden“, erklärt Sukumaran. Und es half der Bank dabei, ein stärkeres und flexibleres IT-Umfeld aufzubauen, das die Bank auf den Umgang mit schnell größer werdenden Datensets vorbereitete.

Sind wir alle auf demselben Weg?

Die Führungsspitze zu überzeugen hilft viel, um Geschäftseinheiten in dieselbe Richtung zu lenken. Aber damit lässt sich das Problem, alle Beteiligten an Bord zu holen, nur zum Teil lösen. Zu den kritischsten Gruppen gehören die Endbenutzer.

Bei Sungard Availability Services, einem Disaster-Recovery-Unternehmen, verbrachte ein Team jeden Monat drei Wochen damit, Berichte für die Unternehmensführung zu verfassen. Das Unternehmen wollt das Team zu einer Analyseplattform, Qlik Sense BI, verlegen.

„Als wir das Tool zum ersten Mal vorstellten, waren sie sehr skeptisch und zögerlich“, berichtet Shreeni Srinivasan, Director of Enterprise Analytics and Applications Delivery bei Sungard Availability Services. „Sie bestanden darauf, einen Server und eine Datenbank zu beschaffen und ein kleines Entwicklerteam anzuheuern, um die Datenextraktion für den Bericht zu automatisieren.“

Es dauerte mehrere Wochen, um die Funktionen und Fähigkeiten des Analyse-Tools zu erläutern. Die Zeit, die es gebraucht hat, um die Benutzer zu schulen, habe sich ausgezahlt.

„Sobald das Team in das Tool eingebracht war, konnten wir die Erstellung des 160 Folien umfassenden Berichts umsetzen und automatisieren“, erklärt Srinivasan. Was zuvor drei Wochen gedauert hatte, wurde jetzt innerhalb weniger Stunden erledigt. „Nachdem das Team den Wert des Tools erkannt hat, nutzt es dieses jetzt am meisten und empfiehlt es anderen Teams in unserem Unternehmen.“

In einer ähnlichen Anstrengung wurde die Personalabteilung des Unternehmens vom Analyse-Tool überzeugt. Zuvor brachte das Team mehrere Stunden im Monat damit zu, Tabellenkalkulationen mit Mitarbeiterdaten zu erstellen und sie per sicherer E-Mail an die Führungskräfte zu verteilen.

Es bedurfte größerer Anstrengungen, die Teams zu überzeugen, Self-Service-Analyse-Tools auszuprobieren, und zu zeigen, dass diese sicher sind und gut gehandhabt werden können. Aber jetzt, so Srinivasan, können die Führungskräfte das Self-Service-Tool nutzen, um umgehend aktuelle Informationen zu erhalten, wann immer sie diese benötigen.

Die Überzeugung der Endbenutzer ist die größte Herausforderung bei der Einführung von Analyse-Tools, sagt Daniel Elman, Analyst bei Nucleus Research. „Die meisten geschäftlichen Nutzer sind nicht in fortgeschrittener Statistik und Mathematik geschult“, erklärt er. „Als Erstes muss das Vertrauen der Nutzer in die Daten und die Ergebnisse hergestellt werden.“

Unternehmen sollten auch daran arbeiten, eine Datenkultur aufzubauen, so Elman, in der Entscheidungen sich auf Daten stützen und Abteilungsleiter datengestützte Leistungsindikatoren aufstellen.

Mangel an klaren Zielen

Auch wenn die richtigen Daten zur Hand und alle Beteiligten an Bord sind, können Analyseprojekte noch schieflaufen, wenn es an klaren, erreichbaren Zielen mangelt.

Laut Kathleen Featheringham, Director of AI Strategy and Training bei Booz Allen Hamilton, könnte ein Problem darin liegen, dass die Menschen die Technologie nicht verstehen, insbesondere wenn es um fortgeschrittene Analyse, maschinelles Lernen und künstliche Intelligenz geht: „Sie verstehen den aktuellen Stand und die Funktionen nicht.“

Featheringham sagt, die Leute hätten tendenziell unrealistische Erwartungen an die Genauigkeit neuer Technologien. „Wir erwarten, dass Maschinen 99 Prozent bis 100 Prozent genau sind. Denken Sie an autonome Autos. Wir wollen, dass sie perfekt sind. Aber kennen Sie einen Menschen, der beim Fahren zu 99 Prozent keine Fehler macht?“

Dasselbe gilt für Unternehmensanalysen. Wenn die Nutzer eine Genauigkeit von 100 Prozent erwarten, und die Genauigkeit liegt dann nur bei 70 Prozent, dann sehen sie das Projekt als gescheitert an.

„Wenn aber mit den heutigen Methoden nur eine Genauigkeit von 20 Prozent erreicht wird, dann ist das eine enorme Verbesserung“, so Featheringham.

Außerdem werden viele Plattform besser, je mehr sie genutzt werden. Wenn Nutzer erwarten, dass die Plattform von Anfang an richtig funktioniert, werden sie vielleicht enttäuscht.

„Modelle müssen trainiert werden“, erläutert sie. „Erwarten Sie nicht, dass es gleich beim ersten Mal funktioniert. Die Trefferquote mag jetzt bei 50 Prozent liegen, aber sie wird später auf 80 Prozent ansteigen.“

Srinivasan sagt, dass es bei Projekten zur Umsetzung neuer Analysestrategien, bei denen neue Tools und Prozesse erforderlich sind, helfen könne, wenn das ausgewählte Projekt eindeutige und erhebliche Vorteile für die Nutzer bietet. Vage Erwartungen oder die Vorstellung, dass das Analyse-Tool langjährige Probleme auf wundersame Weise lösen werde, seien häufig der Grund dafür, dass Projekte zur Umsetzung neuer Analysestrategien scheitern.

„Überraschenderweise werden viele Analyseprojekte ohne klare Zielvorstellung begonnen“, so Srinivasan.

Erfahren Sie mehr über Business-Software

ComputerWeekly.de

Close