Laurent - stock.adobe.com

Rechtskonform mit einer Data-Intelligence-Lösung

Carsten Lux von ASG Technologies erläutert im Interview, warum eine Data-Intelligence-Lösung notwendig ist, um Datenbeziehungen nachvollziehen zu können.

Carsten Lux, Account Executive Enterprise Data Intelligence bei ASG Technologies, ist seit über 25 Jahren im Bereich der Metadata Repositories tätig. Zu seinem Tätigkeitsfeld gehörten in dieser Zeit die Entwicklung, Beratung und der Vertrieb von Data Dictionaries, Metadata Repositories und Compliance-Projekten. Im Interview verrät er, wie sich Daten Compliance-konform managen lassen, welche technischen Grundlagen hierfür notwendig sind und wie sich Aussagen aus den vorhandenen Daten ableiten lassen.

Herr Lux, durch die Digitalisierung wird die Datenflut immer größer. Welche Herausforderungen ergeben sich dadurch für Unternehmen?

Carsten Lux: Es ist in der Tat so, dass Unternehmen mit immer mehr Datenquellen und größeren Datenvolumina zurechtkommen müssen. Logischerweise wird es dadurch schwieriger, den Überblick über die Datenverläufe zu behalten. Das wirkt sich sowohl auf die Compliance als auch die Geschäftsprozesse der Unternehmen aus. Die Datenschutz-Grundverordnung ist wahrscheinlich die bekannteste Richtlinie. Aber in manchen Branchen sind 14 oder 15 Richtlinien zu erfüllen.

Vor welchen Problemen stehen Unternehmen beim Thema Compliance?

Lux: Nehmen Sie beispielsweise den Fall, dass Unternehmen Datenflüsse innerhalb eines Data Warehouse transparent machen wollen und genau belegen möchten, welchen Weg die Informationen durch das Unternehmen genommen haben. Also sprich, wer die Daten wann und wie verarbeitet hat. Wenn versucht wird, die Prozesse händisch nachzuverfolgen, sind diese Anstrengungen früher oder später zum Scheitern verurteilt. Das ist schlichtweg ein Ding der Unmöglichkeit. Um die Beziehungen zwischen Datenelementen im gesamten Unternehmen nachvollziehbar zu machen, ist eine Data-Intelligence-Lösung unverzichtbar.

Weiterhin ist es aber auch notwendig, die Datenelemente fachlich zu beschreiben und den Data Owner zuzuordnen. Viele Compliance-Richtlinien verlangen, oder setzten voraus, dass alle Mitarbeiter Begriffe, die im Unternehmen verwendet werden, verstehen und in gleicher Art und Weise verwenden. Das wird typischerweise mit einem Business-Glossar sichergestellt, welches direkt auf die Metadaten zugreifen kann.

Was sind die technischen Grundlagen, um rechtskonform sein zu können?

Lux: Die IT-Infrastruktur muss richtig ausgerichtet sein. Grundsätzlich sind Content- und Data-Intelligence-Lösungen nötig, um beispielsweise Anforderungen der DSGVO zu erfüllen. Eine Data-Intelligence-Lösung ist für das Metadatenmanagement, also die Verwaltung der Informationen über Merkmale anderer Daten zuständig. Werden beispielsweise in einem Data Warehouse Informationen aus unterschiedlich strukturierten Datenquellen zusammengefasst, erfolgt dies durch den ETL-Prozess, dem Extrahieren, Transformieren und Laden der Daten. Beim Thema Data Lineage geht es darum, den ETL-Prozess umzudrehen und in umgekehrter Weise nachzuvollziehen. Hierbei werden alle im Datenfluss vorhandenen Systeme betrachtet und analysiert.

Wie funktioniert der ETL-Prozess in einem Data Warehouse und was sind dabei die kritischen Aspekte für Data Lineage?

Lux: Kommen Daten aus einem Source-System, werden sie über verschiedene Ebenen transportiert. Für diesen Prozess gibt es unterschiedliche Möglichkeiten wie ETL-Tools, selbst geschriebene Programme zur Übermittlung oder File-Transfer-Protokolle. Man muss nun genau erkennen, was passiert, wenn die Daten die Ebenen wechseln. Und hier gibt es nun innerhalb des ETL-Prozesses verschiedene Varianten wie Filterung, Harmonisierung, Aggregation und Anreicherung der Daten.

Bei der Filterung werden bestimmte Daten ausgesondert. Anhand von Filterkriterien wird beschrieben, welche Daten weiterverarbeitet werden und welche nicht. Bei der Harmonisierung geht es darum, die Kodierungen der Daten zu vereinheitlichen und die Informationen themenspezifisch anzuordnen, beispielsweise nach Kunde oder Projekt. Bei der Aggregation werden Aggregationsalgorithmen festgelegt, nach denen die Daten gebündelt werden.

Carsten Lux, ASG Technologies

„Ein Tool, das die vollständige Data Lineage darstellen soll, muss nicht nur ETL-Tools analysieren können, sondern darüber hinaus auch diverse Programmiersprachen und eingebetteten Programmcode beherrschen.“

Carsten Lux, ASG Technologies

Über einen fachlichen Schlüssel werden die Aggregationsfunktionen festgelegt. Gerade im betriebswirtschaftlichen Kontext müssen Daten oft summiert werden. Beim vierten Schritt, der Anreicherung, werden betriebswirtschaftliche Kenngrößen berechnet und in die Datenbasis integriert. Ein Beispiel, das die Schritte zusammenfasst, ist das Zusammenrechnen von Umsatzzahlen in unterschiedlichen Währungen. Sie müssen erst in eine einheitliche Währung umgerechnet werden, bevor sie summiert werden können.

Bei der Erkennung und Analyse dieser Datenflüsse ergibt sich das Problem, dass verschiedene Technologien zum Einsatz kommen. Weiterhin wird auch Programmcode in den relationalen Datenbanksystemen zur Transformation der Daten verwendet. Ein Tool, das die vollständige Data Lineage darstellen soll, muss also nicht nur ETL-Tools analysieren können, sondern darüber hinaus auch diverse Programmiersprachen und eingebetteten Programmcode beherrschen.

Wie lassen sich letztlich Aussagen über den Weg der Daten durch die Systeme konkret ableiten?

Lux: Wenn alle Metadaten erfasst sind und klar ist, was beim Wechsel zwischen den Architekturebenen passierte, lässt sich herausfinden, welchen Weg ein Attribut durch das IT-System genommen hat. Das Prinzip besteht darin, ein Attribut mit weiteren Attributen über Datenflüsse hinweg zu verknüpfen. Das Ergebnis ist ein Netz von Korrelationen über Architekturgrenzen hinweg. So lässt sich beispielsweise erkennen, wie Daten gebündelt wurden.

Wie werden die Erkenntnisse über die Metadaten letztlich verwertet?

Lux: Die letztliche Ausführung der Prozesse, die zum Löschen, Verändern oder Anonymisieren von Daten notwendig sind, lassen sich allerdings nicht über die Data-Intelligence-Lösung realisieren. Hier kommt das Enterprise-Content-Management-System zum Einsatz. Damit kann durch eine Richtlinienverwaltung Content archiviert, Abfragen durchgeführt, Aufzeichnungen verwaltet und Daten gelöscht werden. Zusätzlich können Identitäten durch Maskierung in Dokumenten verborgen und so geschützt werden. Erst wenn Unternehmen sowohl eine Data-Intelligence- als auch eine Content-Lösung nutzen, können sie einfach und unkompliziert rechtskonform sein.

Folgen Sie SearchEnterpriseSoftware.de auch auf Twitter, Google+, Xing und Facebook!

Nächste Schritte

Data Governance muss komplette Datenverarbeitung umfassen.

Banken müssen in Data-Warehouse-Automatisierung investieren.

Die führenden Data-Discovery-Plattformen im Vergleich.

Erfahren Sie mehr über Business Intelligence

ComputerWeekly.de
Close