BillionPhotos.com - stock.adobe.

Fünf notwendige Prozesse für Predictive Analytics

Verstehen Datenspezialisten den mehrstufigen Prozesszyklus für Predictive Analytics, können sie leichter Engpässe im Ablauf finden und Prognosen treffen.

Es gibt viele Möglichkeiten, den Prozesszyklus für Predictive Analytics zu planen. Die Ausführung ist je nach Unternehmen, Bereich und Branche unterschiedlich. In vielen Fällen kann der gesamte Prozesslebenszyklus in eine oder mehrere Anwendungen, Dienste oder Algorithmen eingebettet sein.

Im einfachsten Fall besteht die einzige Verbindung zum Prognoseprozess darin, Feedback für einen Dienst zu geben, der von einem anderen Unternehmen beziehungsweise Dienstleister verwaltet wird. So ist Predictive Analytics beispielsweise oft in Betrugsmaschinen und Spamfilter integriert. Das Markieren einer E-Mail als Spam oder einer Transaktion als Betrug liefert eine Rückmeldung an den prädiktiven Prozess, der von jemand anderem verwaltet wird. Dieser kann den Algorithmus dann verbessern.

Im anderen Extremfall umfasst ein ausgereifterer Predictive-Analytics-Prozess drei integrierte Zyklen zur Datenerfassung, Datenwissenschaft und Modellbereitstellung, die sich gegenseitig ergänzen. Das MLOps-Framework von Gartner beispielsweise beinhaltet komplementäre Prozesse rund um Entwicklung, Modellfreigabe und Modellbereitstellung für Machine-Learning-Modelle, die sich überschneiden und zusammenarbeiten.

Was sind die Anwendungen von Predictive Analytics?

Predictive Analytics analysiert strukturierte und unstrukturierte Daten und nutzt dazu Big-Data- und Machine-Learning-Methoden. Ziel ist es, zukünftige Ereignisse und Resultate vorherzusagen – was mit statistischen und mathematischen Verfahren und Algorithmen erfolgt. Auf diese Weise sollen Muster, Zusammenhänge und Trends aufgedeckt werden.

„Predictive Analytics hat ein breites Anwendungsspektrum“, sagt Elif Tutuk, Vice President of Innovation and Design beim SaaS-Software-Anbieter Qlik. „Die Methode findet sich in den Bereichen Gesundheitswesen, Einzelhandel, Vertrieb und Marketing sowie in einer Vielzahl anderer Sektoren und Branchen.“ Predictive Analytics können vor allem helfen, Lagerbestände zu prognostizieren, Kundenempfehlungen auszusprechen, Leads zu priorisieren und die Gesundheitsversorgung zu verbessern.

„Eine der wichtigsten Möglichkeiten, diese prädiktiven Modelle in der Praxis einzusetzen, ist die Analyse des Kaufverhaltens der Kunden“, erklärt Bill Szybillo, Business Intelligence Manager beim ERP-Software-Anbieter VAI. „In einer Zeit, in der die Nachfrage rapide ansteigt und es zu Engpässen in der Lieferkette kommt, ist es für Unternehmen von entscheidender Bedeutung, dass die Regale immer gefüllt sind und die Kunden in den Gängen oder auf der Website gehalten werden. Diese Prognosen im Handumdrehen zu erstellen, ist jedoch nicht einfach, da dies oft eine kontinuierliche Datenerfassung über Monate und in manchen Fällen sogar Jahre hinweg erfordert.“

Predictive Analytics ist „eine universelle Technologie“, fügt Tutuk hinzu, „aber die Herausforderung liegt in den Tools und den Daten selbst.“ Aus diesem Grund ist es hilfreich, den Prozesszyklus zu verstehen. Wenn die falschen Tools verwendet werden oder die Analyse auf ungenauen oder veralteten Daten basiert, wirkt sich das negativ auf die Vorhersageergebnisse aus.

Unternehmen müssen bei der Auswahl von Datenpartnern mit großer Sorgfalt vorgehen und sicherstellen, dass ihre Daten korrekt sind und nicht in schwer zugänglichen Silos liegen oder auf andere Weise eingeschränkt sind. Verschiedene Datendienste erleichtern den Einstieg mit geprüften externen Daten. Diese können Aufschluss über andere Faktoren geben, die zu schnell wechselnden Trends führen.

Der Wert von externen Daten ist nicht zu unterschätzen: Viele Unternehmen kombinieren interne Datensätze mit externen Quellen, um neue Erkenntnisse zu gewinnen. „Ein wichtiger Trend im Bereich Predictive Analytics“, so Szybillo, „ist die Möglichkeit, Herstellern dabei zu helfen, künftige Lagerbestände nicht ausschließlich anhand der Nutzung in der Vergangenheit zu bestimmen. Vielmehr sollten auch externe Datenquellen einbezogen und mit den internen Analysedaten kombiniert werden, zum Beispiel Wettermuster, Nachfrageänderungen, Einblicke in die Lieferkette und mehr.“

Was sind die Schritte im Predictive Analytics-Prozess?

Ein Predictive-Analytics-Prozess besteht aus fünf Schlüsselphasen. Definition der Anforderungen, Untersuchung der Daten, Entwicklung des Modells, Einsatz des Modells und Validierung der Ergebnisse. Diese fünf Phasen erfordern verschiedene Arten von Fachwissen: Obwohl jeder dieser Schritte von einer bestimmten Fachkraft bearbeitet werden kann, sollte jeder Schritt des Prozesses im Team ausgeführt und als Teamarbeit betrachtet werden.

Statistiker können zum Beispiel Geschäftsanwendern helfen, fundierte Entscheidungen zu treffen. Datenwissenschaftler können Geschäftsanalysten bei der Auswahl besserer Datensätze helfen. Dateningenieure können mit Datenwissenschaftlern zusammenarbeiten, um Modelle zu erstellen, die einfacher zu implementieren sind.

Zwar können verschiedene Geschäftsanwendungen, Analytics-Toolkits und Cloud-Dienste viele dieser Prozesse automatisieren. Doch ein Verständnis des gesamten Prozesses kann dabei helfen, Prozessengpässe zu finden und die Genauigkeit zu verbessern.

Nachfolgend finden Sie einen detaillierten Überblick über den Predictive Analytics-Prozesszyklus – und die Experten, die in jedem Schritt wichtig sind.

1. Anforderungen definieren

Geschäftsanwender und Fachexperte

Predictive Analytics beginnt in der Regel mit einem Business-Experten, der an der Lösung eines Problems interessiert ist. Beispielsweise interessiert ihn die Verringerung von Betrugsversuchen, die Aufrechterhaltung des Lagerbestands, die Verbesserung von Kundenempfehlungen oder die Steigerung des Werts eines Kreditportfolios.

„Beginnen Sie den Prozess, indem Sie eine Liste von Fragen für den Anwender erstellen und jede Frage nach ihrer Wichtigkeit priorisieren“, empfiehlt Philip Cooper, Vice President of AI and Analytics Products bei Salesforce Tableau CRM. Der Fokus sollte auf der Klärung eines bestimmten Ziels mit messbaren Ergebnissen liegen. Geschäftsanwender können mit einem Statistiker zusammenarbeiten, um das Ergebnis zu überprüfen und Metriken zur Erfolgsmessung festzulegen.

Es ist auch wichtig, das Ziel in einen breiteren Kontext zu stellen. Beispielsweise muss ein Algorithmus zur Betrugsbekämpfung Genauigkeit gegen Aktualität abwägen oder zumindest Ergebnisse innerhalb eines bestimmten Zeitraums liefern.

2. Daten untersuchen

Statistiker und Datenanalytiker

Stellen Sie in der zweiten Phase die Daten bereit, die für die Anforderungen des Ziels relevant sein könnten. Ein Datenanalytiker sollte feststellen, welche Datensätze verfügbar sind und wie sie zur Verbesserung der Vorhersagen und zur Erreichung anderer Geschäftsziele verwendet werden können. Dabei sind Relevanz, Eignung, Qualität und Sauberkeit der Daten zu berücksichtigen. Zu wissen, wie und warum die Daten gesammelt werden, kann helfen, Probleme zu erkennen, bevor die Informationen in das Predictive-Analytics-Modell eingespeist werden.

3. Entwickeln Sie das Modell

Datenwissenschaftler

Überlegen Sie, welche unterschiedlichen Vorhersagemodelle das wertvollste Ergebnis liefern. Arbeiten Sie dann rückwärts, um die beste Methode zu ermitteln, mit der Sie die Rohdaten in einen geeigneten Funktionssatz für das Modell organisieren. Experimentieren Sie mit verschiedenen Merkmalen, Algorithmen und Prozessen, die das richtige Gleichgewicht zwischen Leistung, Genauigkeit und anderen Anforderungen wie Erklärbarkeit herstellen.

Datenwissenschaftler können ein Data Wrangling Tool verwenden, um Rohdatensätze in neue Merkmale für die Berechnung einer Vorhersage umzuwandeln. Die Gruppierung von Temperaturwerten in kalte, warme und heiße Bereiche kann zum Beispiel zu einer effizienteren Vorhersage von Eiscremeverkäufen führen als rein numerische rohe Temperaturwerte.

4. Stellen Sie das Modell bereit

Dateningenieur

Damit das neu entwickelte Vorhersagemodell Ergebnisse liefern kann, muss es in Betrieb genommen werden. Ein nutzbringender Predictive-Analytics-Einblick ist nur dann wertvoll, wenn er einen bedeutenden Unterschied im laufenden Prozess bewirkt. Eine neue Betrugsmaschine muss beispielsweise in den Prozess der Transaktionsgenehmigung integriert werden. Ein neuer Algorithmus zur Lead-Bewertung kann den Arbeitsablauf des Vertriebsteams unterstützen. Dazu muss er in die bestehenden Prozesse eingebaut werden.

Sobald der Datenwissenschaftler das Modell genehmigt hat, legt der Dateningenieur fest, wie der Prozess des Abrufens, Bereinigens und Umwandelns der für das Modell erforderlichen Rohdaten optimiert werden kann. Der Datenwissenschaftler und der Ingenieur müssen dann das Ergebnis mit der entsprechenden Anwendung oder dem Arbeitsablauf verbinden.

5. Validieren Sie die Ergebnisse

Business-Anwender und Datenwissenschaftler

Wenn die Datenwissenschaft gut ausgeführt wurde, sollte das Predictive-Analytics-Modell die Leistung, Genauigkeit und andere Anforderungen erfüllen, wenn es mit echten Live-Daten konfrontiert wird. Die Leistung kann sich jedoch im Laufe der Zeit ändern. In einigen Fällen können sich Änderungen der Kundenstimmung, des Geschäftsklimas oder andere Faktoren auf die Modellleistung auswirken. In anderen Fällen können böswillige Akteure versuchen, die Modellgenauigkeit absichtlich zu untergraben. E-Mail-Spammer können beispielsweise bessere KI-Tools entwickeln, um rechtmäßige Nachrichten zu simulieren. Cyberkriminelle können Taktiken anwenden, um die Erkennung von Betrugsfällen zu umgehen.

Unabhängig von der Ursache ist es hilfreich, Veränderungen in der Modellleistung zu überwachen und bestimmte Leistungsschwellwerte für die Aktualisierung der Modelle festzulegen. Ein Betrugserkennungsmodell, das sich um mehr als 1 Prozent verschlechtert, muss beispielsweise aktualisiert werden, während der Schwellenwert für eine Produktempfehlungs-Engine bei 5 Prozent liegen kann.

Erweiterung des Vorhersageprozesses

Der Predictive-Analytics-Prozesszyklus ist kompliziert, zeitaufwändig und mühsam. Bessere Tools, Managementprozesse und Cloud-Dienste tragen zur Optimierung des Prozesses bei.

„Viele Schritte in diesem Prozess sind automatisiert oder erweitert", sagt Carlie Idoine, Research Director für Business Analytics bei Gartner. Neue Tools können die Datenaufbereitung, die Modellerstellung und die Bereitstellung verbessern. XOps charakterisiert die verschiedenen Fähigkeiten, die am Predictive-Analytics-Prozesszyklus beteiligt sind, einschließlich DataOps, ModelOps, AIOps, MLOps und Platform Ops.

„In der Vergangenheit“, so Idoine, „nahm die Suche nach den richtigen Daten und deren Zusammenführung in der Regel den größten Teil der Zeit für die Erstellung eines Modells in Anspruch. Jetzt kann die erweiterte Datenaufbereitung einen Großteil dieses Prozesses automatisieren.“

Erweiterte Tools für die Erstellung von Modellen können Datenwissenschaftlern dabei helfen zu bestimmen, welche Merkmale oder Kombinationen von Variablen zu den besten Vorhersageergebnissen führen. Diese Augmented Model Deployment Tools ermöglichen es Datenwissenschaftlern, Modelle auf eine von den Datentechnik-Teams erstellte Infrastruktur zu übertragen.

Obwohl diese erweiterten und automatisierten Tools es den Geschäftsanwendern erleichtern, den größten Teil des Prozesses zu steuern, warnt Idoine davor, den Bedarf an Experten zur Überwachung des Prozesses zu vernachlässigen: „Die Automatisierung nimmt die Experten nicht aus dem Spiel, sondern macht den Prozess effizienter. Das ermöglicht es verschiedenen Arten von Nutzern, die Tools zu verwenden, um die Vorteile von Predictive Analytics zu nutzen."

Erfahren Sie mehr über Datenanalyse

ComputerWeekly.de
Close