AlienCat - stock.adobe.com

Wie richtiges Datenmanagement zu Trustworthy AI beiträgt

Das Thema Trustworthy Artificial Intelligence hat einen hohen Stellenwert in der EU. Damit sollen ethischen Prinzipien in KI-Systemen definiert werden. Was steckt dahinter?

Künstliche Intelligenz (KI) verspricht uns die Lösung sämtlicher Probleme. Die technologischen Möglichkeiten beflügeln unsere Fantasie und lassen uns von der weit entfernten technologischen Singularität träumen.

Doch auch wenn uns computerbasierte Entscheidungen schon Vieles versprechen, zum Beispiel Geschwindigkeit, Nutzung großer Datenmengen und gerechtere Urteile, müssen wir uns fragen: Vertrauen wir diesen Entscheidungen, wenn sie uns betreffen? Möglicherweise fällt uns heute die Vorstellung schwer, wie etwa der Börsenhandel aussieht, wenn dort ausschließlich digitale Agenten interagieren.

Menschenzentrierte KI-Anwendungen

Es wird deutlich, dass der Einsatz künstlicher Intelligenz signifikante Auswirkungen auf die Managementdimensionen haben kann, und viel mehr als nur ein Mittel zur Abarbeitung von Aufgaben ist. Sie rückt stärker in die Rolle eines Agenten. Diese Agenten verhalten sich nicht menschlich und es erfordert ein tiefes Verständnis darüber, was eigentlich Vertrauen ausmacht, da die Schritte, die zu einer Entscheidung geführt haben, für den an der Entscheidung Unbeteiligten nicht nachvollziehbar sind.

Vertrauen ist ein wichtiges Bindeglied für die Zusammenarbeit innerhalb komplexer sozialer Systeme, wie es eben eine Organisation oder beispielsweise ein Rechtsstaat ist. Ansätzen wie der Entwurf für eine Verordnung zur Regulierung von KI (EU AI Act) unterstreichen den Bedarf, diese menschenzentrierten Notwendigkeiten zu schützen und uns mehr Sicherheit zu geben, so dass wir leichter Vertrauen fassen können.

Forschung rund um die Einführung von KI wird jedoch seit Jahrzehnten hauptsächlich aus einer technologischen Sicht vorangetrieben, ohne die Anforderungen eines sozialen Kontextes zu berücksichtigen. Die wesentliche Herausforderung bei der Einführung von KI ist allerdings deren Integration in bestehende und neue Geschäftsprozesse.

Um die Schwierigkeiten bei der Einführung von KI zu überwinden, fordern Forschung und Praxis einen menschenzentrierten Ansatz zum Aufbau vertrauenswürdiger KI-Systeme. Menschenzentrierte Ansätze, die Anforderungen an Vertrauen erfüllen, sind prinzipienorientiert, und können jeweils für sich kulturell anders ausgelegt sein und über den Zeitverlauf weiterentwickeln und ändern. Auf globaler Ebene hat sich ein Konsens über ein Set von Prinzipien gebildet, der sich größtenteils in den übergeordneten Zielen der EU KI-Verordnung (EU AI Act) wiederspiegelt. Diese sind Transparenz (transparency), Verantwortung (responsibility), Privatsphäre (privacy), Gerechtigkeit (justice and fairness) und Schadensfreiheit (non-maleficience).

Die Rolle von Datenmanagement bei Trustworthy AI

Wo KI zum Einsatz kommt, berührt sie Daten und damit uns persönlich. Um dabei im gesamten KI-Lebenszyklus mittels präventiver Maßnahmen das notwendige Vertrauen sicherstellen zu können, müssen auch Mitigationsstrategien bei der Datenerhebung und Datenvorverarbeitung zum Einsatz kommen. Daten stellen also, wenig überraschend, die Grundlage einer sinnvoll arbeitenden KI dar.

Das Datenmanagement, mit seinen Methoden zur Erhebung, Persistierung sowie Bereitstellung und Verwaltung, ist eine Kernbedingung zur Erfüllung von Trustworthy-AI-Anforderungen. Traditionell war ein zentraler Antrieb im Datenmanagement die Herbeiführung von Datenqualität, sodass die Daten für die Geschäftsanalyse und -steuerung auf sinnvollen Aggregationsdimensionen nutzbar gemacht werden konnten.

Mit der Einführung der verschiedenen Gesetze und Verordnungen wie Bundesdatenschutzgesetz und EU-DSGVO wurden fundamentale Rechte bezüglich der Privatsphäre eines jeden Individuums verankert. Dies hat das Bewusstsein für den Umgang mit Daten sensibilisiert.

Weitere Gesetzesentwürfe gemäß der europäischen Datenstrategie sind bereits auf dem Weg, wie zum Beispiel der Data-Act-Entwurf, welcher eine verbesserte technische Schnittstelle für den Zugriff auf Daten für Nutzer vorsieht oder der Data Governance Act (DGA), welcher die gemeinsame Nutzung von Daten mit entsprechenden Schnittstellenstandards fördern soll.

Die Entstehung und Entwicklung von künstlicher Intelligenz in einem Unternehmen wird künftig bestimmten Regularien unterworfen sein. Die Umsetzung dieser Regularien stellen eine große unternehmerische Herausforderung dar. Besonders, wenn ethische Prinzipien Teil der regulatorischen Anforderungen sind, steigt die Komplexität in der Umsetzung der Normen oder Standards.

Fest steht, zukünftig müssen die Daten hinsichtlich der ethischen Prinzipien auditierbar sein, denn die Daten stellen eine KI-Schwachstelle und mögliche Verletzung von fundamentalen Rechten dar.

Mit der DSGVO wurden bereits Werkzeuge wie ein Data Protection Impact Assessment (DPIA) eingeführt, um Risiken bei der Verarbeitung von Personendaten auf ein Minimum zu reduzieren. Weitere Standards, die das Datenmanagement betreffen, müssen für Trustworthy AI über Themen wie Datenqualität hinausgehen und Aspekte der Datenerhebung, gemessen an statistischen Metriken, gemäß ihrer Inhalte, Authorisierungsrechte, Lizenzen und Unsicherheiten, berücksichtigen.

Der Qualitätsvergleich und die konkrete Umsetzung von Trustworthy AI

Wie sollen Anforderungen, insbesondere nicht-funktionale Anforderungen, von IT-Systemen dokumentiert werden, die KI- und Machine-Learning-Komponenten beinhalten? Dazu sollte man einen Standard oder eine Norm hinzuziehen. Betrachtet man ein KI-System als Softwaresystem, ist es naheliegend, ISO 25010 (Systems and software engineering – Systems and software Quality Requirements and Evaluation (SQuaRE) – System and software quality models) als Softwarequalitätsstandard aufzugreifen.

Nicht funktionale Anforderungen bei KI-Systemen enthalten Themen wie Ethik oder Erklärbarkeit. Diese werden in gängigen Softwaresystemen in der Regel nicht betrachtet und somit fehlen diese Aspekte in der ISO 25010. KI-Systeme und deren Einsatz werden stärker aus einer soziotechnischen Brille betrachtet.

Lilian Do Khac, adesso

„Forschung rund um die Einführung von KI wird seit Jahrzehnten hauptsächlich aus einer technologischen Sicht vorangetrieben, ohne die Anforderungen eines sozialen Kontextes zu berücksichtigen.“

Lilian Do Khac, adesso

Der VDE hat im April 2022 mit der VDE SPEC 90012 (PDF) einen Ansatz veröffentlicht, mit dem ethischen Prinzipien standardisiert geprüft werden können und somit auch konkrete Anforderungen ableitbar sowie vergleichbar machen. Auch zur Dokumentation und damit implizit zum Umgang mit Daten gibt es im VDE SPEC 90012 eine Bewertung. So bewertet der VDE SPEC 90012, ob die Herkunft der Daten standardisiert und mit sogenannten Datenblättern strukturiert dokumentiert wurde, und ob die Charakteristiken der Datensets, zum Beispiel mögliche Verzerrungen, einsehbar sind.

Konkrete Methoden und Tools sind derzeit in der Entwicklung. Hinsichtlich des aktuellen Best-Practice-Standards existieren Methoden zur Dokumentation der Datenherkunft im Sinne von Data Provenance (siehe die wissenschaftliche Veröffentlichung von Timnit Gebru et al Datasheets for Datasets), was sich unterscheidet von Datenherkunft im Sinne von Data Lineage, wo es um reines Data Mapping geht.

Schon dieser vertiefte Einblick im Kontext von Trustworthy AI erschlägt einen und lässt die Auswirkung der KI-Verordnung erahnen. Sie würde im Vergleich zur DSGVO um ein Vielfaches komplexer und anspruchsvoller ausfallen, denn nur die Beherrschung der Daten reicht nicht aus, um Trustworthy AI zu erzielen. Gleichzeitig ermöglicht Trustworthy AI gesellschaftlichen Wohlstand dadurch, dass fundamentale Menschrechte noch weiter in den Vordergrund rücken und Qualität in KI-Systemen fordern.

Christian Hammer, adesso

„Die Entstehung und Entwicklung von künstlicher Intelligenz in einem Unternehmen wird künftig bestimmten Regularien unterworfen werden.“

Christian Hammer, adesso

Damit ein Unternehmen einen Weg aus dieser Herausforderung skizzieren kann, müssen Frameworks auf verschiedenen organisatorischen Ebenen geschaffen werden. So ist es erforderlich, Transparenz in Entscheidungen zu schaffen, die von Menschen und KI getroffen wurden (zum Beispiel wann hat wer warum auf welcher Datengrundlage entschieden?), Verantwortlichkeiten innerhalb der Kundenorganisation zu definieren (was macht die KI, was macht der Mensch, was machen beide gemeinsam, welche Daten sind einbezogen worden?) und eine risikominimierende Unternehmenskultur zu adaptieren.

Über die Autoren:
Lilian Do Khac beschäftigt sich mit der Konzeption und Implementierung von KI-Lösungen für die datengetriebene Entscheidungsunterstützung. Trustworthy-AI-Anforderungen spielen dabei eine signifikante Rolle. Hier leitet sie derzeit den Bereich Offering Portfolio Trustworthy AI für adesso. In diesem Bereich ist sie nicht nur aus IT-Implementierungssicht unterwegs, sondern auch als Wissenschaftlerin.

Christian Hammer setzt seit über 20 Jahren Projekte zu komplexer Datentransformationen in moderne Infrastrukturen um. Sein fachlicher Schwerpunkt liegt in den Bereichen DWH/BI und Big-Data-Architektur und -Programmleitung. Durch seine langjährige Tätigkeit als IT-Berater ist er ein geeigneter Experte im IT-Strategie-Kontext und für die Programmleitung in Transformationsvorhaben von komplexen Datenlandschaften.

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

Erfahren Sie mehr über Künstliche Intelligenz (KI) und Machine Learning (ML)

ComputerWeekly.de
Close