Wie Unternehmen die Datenqualität sichern können

Qualitativ hochwertige Daten sind die Grundlage des Geschäftserfolgs. Doch wer kümmert sich um die Sicherung der Datenqualität in Unternehmen?

Wer ist für die Sicherung der Datenqualität verantwortlich? Auch wenn der Wunsch nach einer einfachen Lösung verständlich ist – die Antwort auf diese Frage ist komplex. Selbst in einer eingeschränkten Umgebung mit nur einer Art der Dateneingabe und einem Kanal für die Anzeige dieser Daten sind vier mögliche Verfahren denkbar:

  1. Entweder ist der Erzeuger oder Lieferant dafür zuständig, sicherzustellen, dass die Regeln zur Datenqualität eingehalten werden, bevor sie überhaupt im Zielsystem landen.
  2. Ebenso gut könnte der Eigentümer des Systems verpflichtet werden, die Einhaltung der Datenqualitätsregeln nach dem Hochladen der Daten sicherzustellen.
  3. Alternativ könnte der Eigentümer des Systems verantwortlich sein, die Einhaltung der Qualitätsregeln zu überprüfen, bevor Informationen auf Basis der Daten zum End-User gelangen.
  4. Schließlich können die Anwender verpflichtet werden, die Übereinstimmung der Daten mit den Qualitätsregeln zu prüfen, bevor sie die erhaltenen Informationen verwenden.

Beim Versuch, die qualitativen Unterschiede zwischen diesen Möglichkeiten zu bestimmen, drängt sich die Frage auf, wessen Vorstellung von Datenqualität maßgeblich ist. Und da das Hauptziel des Datenqualitätsprozesses letztlich darin besteht, dass die Anwender von den Daten profitieren, erscheint es nur folgerichtig, dass sie auch für die Datenqualitätsstandards zuständig sind. Gleichwohl wäre es sinnvoll, den Geltungsbereich der Regeln soweit wie möglich auszudehnen, idealerweise bis zurück zum Erzeuger der Daten.

Trübe Aussichten für die Datenqualität?

Verglichen mit dem Optimalfall sieht es in der Realität allerdings meistens etwas trübe aus. Dafür gibt es drei Gründe: Erstens werden Daten vielleicht für einen bestimmten Zweck erhoben oder produziert und die dafür gültigen Qualitätsregeln sind möglicherweise nicht mit denen abgestimmt, die im jeweiligen Anwendungsbereich des End-Users gelten. 

Zweitens haben die Produzenten der Daten häufig nicht die nötigen Ressourcen in Form von Zeit und Budget, um die Datenqualitätsansprüche der Anwender zu erfüllen. Und drittens ist es in vielen Fällen einfach nicht machbar, die Daten, die im Datensatzsystem eines Unternehmens gesammelt werden, zu transformieren. Das gilt umso mehr, wenn man sich von dem oben skizzierten beschränkten Modell mit nur einer Datenquelle und einem Output-Kanal löst und es plötzlich mit einem Vielfachen von Datenlieferanten und -konsumenten zu tun hat.

In diesem realistischeren Szenario arbeiten unterschiedliche Benutzergruppen häufig mit unterschiedlichen Sets von Regeln für die Datenqualität. Betrachtet man die ersten beiden der aufzeigten vier Möglichkeiten zur Organisation der Verantwortung für die Datenqualität, werden zwei potenzielle Probleme sichtbar: Skalierbarkeit und Konflikte.

Die Validierung der Daten bei der Eingabe erfordert den Abgleich mit allen nachgelagerten Qualitätsregeln. Dabei stellt sich die Frage, ob das realistisch umsetzbar ist, wenn gleichzeitig die Service-Level-Agreements (SLAs) für die Performance der Datenverarbeitung eingehalten werden soll. Ernster werden die Probleme, wenn unterschiedliche Regeln nicht miteinander vereinbar sind, denn dann sind interne Konflikte programmiert.

Ohne rigide Enterprise-Data-Governance-Policies wird die Einführung der Datenqualitätssicherung bei der Dateneingabe oder -übernahme zu einer technischen und organisatorischen Herausforderung. Damit bleiben die dritte und die vierte Variante. In beiden Fällen geht es darum, die Qualitätsregeln bei der Nutzung von Daten umzusetzen. Verantwortlich ist entweder der Eigentümer des Systems oder der Endbenutzer selbst.

Die IT unterstützt mit Datenvirtualisierung

Wenn ein Geschäftsbereich oder eine Abteilung die Regeln kontrolliert, erscheint es umständlich, ihre Durchsetzung an eine andere Partei auszulagern. Damit bleibt die logische Schlussfolgerung, dass die Anwender ihre Regeln bei der Datenanwendung selbst umsetzen sollten. Anders ausgedrückt: da die Relevanz der Datenqualität sich aus dem Kontext ihrer Nutzung ergibt, liegt die Qualität auch hier im Auges des Betrachters (=Anwenders). 

Das befreit die Datenfachleute der IT nicht von der Mitwirkung am Datenqualitäts-Management. Doch die Besonderheiten ihrer Rolle müssen angepasst werden, damit sie die Entwicklung eines Frameworks zur Definition und Implementierung einer Datenqualitäts-Policy erlauben, die den spezifischen Anforderungen aller unterschiedlichen Benutzergruppen gerecht wird. Die dazu nötige Balance zwischen dem Bedarf an einheitlichem Datenzugriff und der benutzerspezifischen Anwendung von Qualitätsregeln lässt sich mit Datenvirtualisierung herstellen.

Mit Datenvirtualisierungssoftware können Daten-Manager semantische Schichten erzeugen, die auf die Anforderungen einzelner Benutzergruppen abgestimmt sind. Diese befinden sich auf einer gemeinsamen Grundlage, die den einheitlich Zugriff auf die darunterliegenden Systeme ermöglicht.

Die Validierung der Datenqualität, Transformation und Standardisierung von Daten finden wiederum zwischen den beiden Schichten statt. Dieser Ansatz erlaubt es, dieselben Daten entsprechend den Benutzererfordernissen unterschiedlich aufzubereiten und gleichzeitig einen historischen Beleg über die Einhaltung der Datenqualitätsregeln zu erhalten, so dass Nachweisbarkeit und Auditierbarkeit gesichert sind.

Ebenso wie die zahleichen Datenquellen in einem typischen Unternehmen zunehmend kritisch für den Geschäftserfolg werden, nimmt auch die Komplexität der Datenqualitätssicherung deutlich zu. Doch wenn die Betreuung der Datenqualitätsregeln auf Benutzerebene erfolgt und Datenvirtualisierungswerkzeuge implementiert werden, um den Prozess zu steuern, können Unternehmen die passenden Daten zur Nutzung bereitstellen und unnötige Diskussionen über Qualitätsprobleme vermeiden.

Über den Autor:
David Loshin ist Präsident der Consulting- und Entwicklungsfirma Knowledge Integrity. Das Unternehmen erarbeitet mit Kunden Initiativen in den Bereichen Big Data, Business Intelligence und Daten-Management aus. Lohsin ist Autor und Co-Autor mehrerer Bücher. Dazu gehört unter anderem „The Practitioner's Guide to Data Quality Improvement“.

Folgen Sie SearchEnterpriseSoftware.de auch auf Twitter, Google+ und Facebook!

Artikel wurde zuletzt im Februar 2015 aktualisiert

Erfahren Sie mehr über Data Governance

- GOOGLE-ANZEIGEN

ComputerWeekly.de

Close