Datenqualitätsüberprüfungen sollten ein höheres Niveau erreichen

Daten-Management-Experte Andy Hayler plädiert für eine bessere Datenqualitätsüberprüfung in Firmen. Das gilt auch für staatliche Regulierungsbehörden.

Im Zuge der weltweiten Finanzkrise wurden in den USA und in Europa zahlreiche neue Vorschriften erlassen. Der Dodd-Frank-Act, Basel III und das Solvency-II-Projekt der EU sind zu bestehenden Gesetzen und Vorschriften hinzugekommen. Diese Rechtsvorschriften legen strengere Risiko-Management-Regeln fest und verlangen von Unternehmen die Bestätigung, dass ihre Finanzergebnisse und andere Unternehmensberichte genau sind, und das bedeutet wiederum, dass auch die Daten, auf denen diese basieren, korrekt sind. 

Daher könnte man durchaus erwarten, dass das Niveau der Datenqualität in den letzten Jahren deutlich verbessert wurde. Unternehmen, die bisher die Frage ihrer Datenqualität vielleicht nicht so ernst genommen hatten, wurden inzwischen per Gesetz dazu verpflichtet. Aber ist das tatsächlich passiert?

2009 befragte meine Beratungsfirma The Information Difference Unternehmen detailliert zum Stand der Qualität ihrer Daten. 2013 wiederholten wir die Befragung bei 210 Teilnehmern – die Hälfte aus Nordamerika, 41 Prozent aus Europa, die übrigen aus dem Rest der Welt. Leider zeigen die Ergebnisse – erneut – kein gutes Bild.

In der Befragung von 2009 sagten 66 Prozent der Teilnehmer, dass die Qualität ihrer Daten insgesamt gut oder besser ist, aber in der neuen Befragung ging die Zahl leicht auf 63 Prozent zurück. Dagegen stieg der Anteil der Teilnehmer mit einem aktiven Programm zur Sicherung der Datenqualität von 37 Prozent auf 57 Prozent. Das lässt darauf schließen, dass die Aktivitäten im Zusammenhang mit dem Datenqualitäts-Management deutlich zugenommen haben, es ist aber beunruhigend, dass der Nettoeffekt der stärkeren Anstrengungen eine gewisse Verschlechterung in der Gesamtwahrnehmung der Datenqualität ist.

Gute Datenqualität schwer zu finden

Vielleicht sollten die teilnehmenden Unternehmen Experten zu Hilfe holen? Um ehrlich zu sein: Viele haben das getan. 2009 zogen nur 27 Prozent externe Berater hinzu, die sie bei ihren Datenqualitätsinitiativen unterstützen sollten. 2013 waren es 53 Prozent, also fast doppelt so viele. Es hat aber nicht den Anschein, dass sich diese zusätzliche Unterstützung bisher positiv ausgewirkt hat.

Warum ist Datenqualität ein so schwer zu bewältigendes Problem? Dies sind die zwei größten Hindernisse, die die Teilnehmer der Befragung nannten: „Die Unternehmensleitung hält es nicht für zwingend erforderlich“ und „Es ist sehr schwer, einen Business Case zu präsentieren“. Das sind dieselben Antworten, die 2009 in Bezug auf die Haupthindernisse gegeben wurden.

Ein weiteres übereinstimmendes Ergebnis der Befragung ist, dass nur etwa ein Fünftel der Befragungsteilnehmer einen Business Case für ein Datenqualitätsprogramm erarbeitet haben. Die Zahl derer, die das getan haben, ging in der letzten Befragung leicht von 22 Prozent auf 21 Prozent zurück.

Ein Grund, warum die Erstellung eines Business Case und die Gewinnung der Unterstützung des Top-Managements ein so nachhaltiges Problem sind, lässt sich in einer Antwort auf eine andere Frage finden. Zu der Frage, ob ihre Unternehmen die Kosten schlechter Datenqualität messen, sagten 57 Prozent der Teilnehmer 2013, dass sie es überhaupt nicht versucht hätten. Das ist nur etwas besser als die 63 Prozent von 2009.

Das ist ein trauriges Ergebnis. Es ist unwahrscheinlich, dass viele umfangreiche Daten-Management-Initiativen die Unterstützung leitender Führungskräfte gewinnen und finanziert werden, ohne dass ein Business Case vorliegt. Und ein guter Anwendungsfall enthält solide Daten zu den laufenden Kosten und erwarteten Vorteilen.

In der Befragung wurde auch nach dem Umfang bestehender Initiativen zur Datenqualitätssicherung gefragt: „Werden unternehmensweit alle Unternehmensdaten erfasst?“ Nur 28 Prozent der Teilnehmer antworteten darauf mit Ja. Der am häufigsten abgedeckte Bereich der Qualitätssicherungsmaßnahmen waren Namens- und Adressdaten (von Kunden oder Lieferanten). Diese Daten bringen zum Ausdruck, was für Anbieter von Tools zur Datenqualitätssicherung am wichtigsten ist. Produkt- und Finanzdaten folgten als Nächstes auf der Beliebtheitsliste.

Kein positives Bild

Big Data war ein weiteres Thema der Befragung und 55 Prozent der Teilnehmer waren der Ansicht, dass Datenqualität für Big-Data-Projekte sehr relevant ist. Das erscheint aber ziemlich unbedeutend angesichts der enttäuschenden Situation, die sich bei der Befragung zur Qualität von Small Data ergab, also das, was die meisten Unternehmen jetzt haben.

Mehr zum Thema Datenqualität:

SAP Data Services: Optimierung der Datenqualität sorgt für mehr Prozesseffizienz.

Wie Unternehmen die Datenqualität sichern können.

Datenqualität und Management: Big Data erfordert Big-Data-Management.

Bessere Datenqualität mit Big-Data-Analytics und Hadoop.

Zehn Analysten-Tipps für Datenqualitätsprojekte.

Und das hat seinen Preis für die Unternehmen, auch wenn sie ihn häufig nicht quantifizieren. Die Befragungsteilnehmer wurden gebeten, über Datenqualitätsprobleme in der Praxis zu berichten, die sich auf die Geschäftsabläufe auswirkten. 

Berichtet wurde über alles, von der relativ harmlosen „Doppelabrechnung“ und „an die falsche Adresse geschickten Warenlieferungen“ bis zu schwereren Vorfällen, beispielsweise „Vertragskündigung wegen einer unzustellbaren Erinnerung“ und „CEO musste Preis-/Gewinnzahlen korrigieren, aufgrund der Befürchtung unkontrollierter Basismessdaten“.

Alles in allem zeichnet die Befragung kein positives Bild. Trotz des stärkeren Gewichts der Vorschriften, trotz der Horrorgeschichten über die Folgen einer schlechten Datenqualität und trotz der wachsenden Zahl von Unternehmen, die einen erheblichen Aufwand für Qualitätssicherungsprojekte betreiben, hat sich das berichtete Qualitätsniveau in den letzten vier Jahren nicht verbessert. Es hat sich sogar leicht verschlechtert.

Unternehmen müssen sich stärker anstrengen. Und all die staatlichen Regulierer, die ihre Hoffnung auf glänzende neue Risiko-Management-Modelle und ausgeklügelte Absicherungen setzen, um ein neues finanzielles Debakel zu vermeiden, wären gut beraten, einmal zu prüfen, wie zuverlässig die Informationen sind, die Unternehmen ihnen liefern.

Über den Autor:
Andy Hayler ist Mitgründer und CEO des Beratungsunternehmens The Information Difference und tritt häufig als Redner bei Konferenzen zu Masterdaten-Management, Data Governance und Datenqualität auf.

Folgen Sie SearchEnterpriseSoftware.de auch auf Twitter, Google+ und Facebook!

Artikel wurde zuletzt im Juli 2015 aktualisiert

Erfahren Sie mehr über Big Data

- GOOGLE-ANZEIGEN

ComputerWeekly.de

Close