Feng Yu - stock.adobe.com

Unternehmen sollten einen Ethik-Framework für KI entwickeln

Wenn Unternehmen beginnen, KI einzusetzen, sollten sie sich nicht nur mit KI-, sondern auch mit Ethik- und Datenschutzfragen beschäftigen, und Richtlinien festlegen.

Datenschutzbedenken und ein Unbehagen über geschlossene, nicht transparente KI-Modelle plagen derzeit große Technologieunternehmen. Dies gilt vor allem für diejenigen, die ein spektakuläres Wachstum von Anwendungen mit künstlicher Intelligenz (KI) in ihrem Unternehmen verzeichnet haben.

Im Jahr 2019 kamen Unternehmen regelmäßig wegen Klagen und Missbrauch von Verbraucherdaten in die Schlagzeilen. Damit nicht genug: Experten kritisieren aktuell immer wieder Machine-Learning-Modelle, die inzwischen einen zentralen Stellenwert für viele Unternehmen haben. Die Kritiker bemängeln vor allem die inhärenten Verzerrungen in den zugrunde liegenden Daten, die oft zu problematischen Ergebnissen führen.

Bevor man vom Experimentieren mit KI zum praktischen Einsatz übergeht, sollte man diese Vorfälle und Diskussionen als Warnung betrachten – und man sollte Vorkehrungen treffen: Beginnen Sie daher zeitnah damit, ein umfassendes ethisches Framework für den KI-Einsatz zu etablieren.

Etablieren Sie einen Ethik-Framework

„Unternehmen stehen heute vor großen Herausforderungen bei der Governance von KI“, sagt Irfan Saif, Direktor bei Deloitte. „Der Softwarebranche fehlen allerdings Governance-Standards für KI.“ In gewisser Weise erinnere ihn das an die Verwirrung der Unternehmen, als die Cloud-Technologie entstand. Ein Teil des Problems liegt laut Saif in einem Mangel an Schulung und Ausbildung: „Bildung und die allgemeine Verbesserung des Verständnisses dessen, was KI ist, sind aber entscheidend.“

Unternehmen haben aktuell Mitarbeiter mit unterschiedlichem KI-Know-how. Dies führt dazu, dass relativ unerfahrene Mitarbeiter beginnen, in den Abteilungen KI einzusetzen. Diesen Mitarbeitern, aber auch den Geschäftskunden allgemein, fehlt oft das notwendige Verständnis dafür, was diese Technologien leisten und was nicht. Das gilt auch dann, wenn sie Geld aus IT-Budgets für den Versuch der Automatisierung von Arbeitsabläufen ausgeben.

Laut Analyst Alan Pelz-Sharpe nutzen einige Technologieanbieter diese Bildungslücke, um ihre Produkte zu verkaufen oder ihre Fähigkeiten in einem besseren Licht darzustellen. Andere Anbieter bieten für ein besseres Verständnis der KI kostenlose, wenn auch manchmal rudimentäre Schulungen an, in denen sie die Grundlagen der KI erklären, während sie gleichzeitig ihre Produkte verkaufen möchten.

KI-Ethik-Ausbildung

DataRobot, ein in Boston ansässiger Anbieter von Analytics und Machine Learning, hat zum Beispiel mehrere Kurse zur KI-Ethik im Programm. Einer dieser Kurse, den das Unternehmen AI-Interpreter nennt, erklärt Geschäftsanwendern die Grundlagen der KI-Technologien und wie diese Technologien das Business voranbringen können.

„Es geht in der KI nicht nur darum, die Mathematik richtig zu machen. Vielmehr muss man auch sicherstellen, dass das, was Sie produzieren, mit den Geschäftsregeln, dem regulatorischen Umfeld und den Werten des Unternehmens übereinstimmt“, sagt Colin Priest, Senior Director of Product Marketing bei DataRobot. Der öffentlich zugängliche Kurs von DataRobot behauptet, dies anzubieten.

DataRobot betreibt auch eine Website, die Unternehmen bei der Erstellung eines Frameworks zur KI-Ethik unterstützt. Die Benutzer müssen dabei etwa 20 Fragen beantworten. Anschließend erstellt die Website eine Erklärung mit allgemeinen Richtlinien zum Datenschutz und zur KI-Ethik.

KI-Ethik ist im Moment „ein wirklich heißes Thema“, sagt Priest. „Die Anwender scheinen auch daran interessiert zu sein, KI-Richtlinien zu erstellen.“

Sobald Unternehmen ein gewisses Verständnis erreicht haben, können sie KI-Ethik-Frameworks entwickeln, um ihre allgemeinen Richtlinien für Daten und eine erklärbare KI zu gestalten. „Unternehmen, die 2019 einen KI-Ethik-Framework entwickeln wollen, sollten jetzt in Aus- und Weiterbildung investieren und sich dann auf den Aufbau eines KI-Governance-Teams konzentrieren“, sagt Saif.

Bildung eines KI-Governance-Teams

„Das erste, was getan werden sollte, ist, ein Team von Führungskräften zusammenzustellen, das die ganze Breite des Unternehmens repräsentiert“, sagt Saif. Die Teammitglieder müssen aus jedem Bereich des Unternehmens kommen. Inhaltlich sollte das Team prüfen, wie das Unternehmen KI verwendet und welche Möglichkeiten es gibt, mehr KI einzusetzen.

Das Team sollte eine Strategie ausarbeiten, die zeigt, welche KI-Techniken und -Ansätze für das Unternehmen am wirkungsvollsten sind und in welchen Bereichen dies der Fall ist. Mit einem vorhandenen Plan kann das Unternehmen festlegen, wie es die Daten, die für die KI-Algorithmen verwendet werden, effektiv nutzen, überwachen und schützen kann.

Abbildung 1: Stufen der KI-Fähigkeiten in RPA-Systemen.
Abbildung 1: Stufen der KI-Fähigkeiten in RPA-Systemen.

Unternehmen sollten eine Richtlinie für den „am wenigsten privilegierten Zugriff“ erstellen. Das bedeutet: Der Zugang zu den relevanten Daten sollte laut Saif nur Personen und Algorithmen gewährt werden, die diese Daten auch benötigen.

Unternehmen, insbesondere solche, die ihre eigenen KI-Technologien entwickeln und einsetzen, sollten außerdem daran arbeiten, dass ihre Modelle erklärbar und durchsichtig sind.

„Machine Learning wird immer eine Art Black Box sein“, sagt Edson Tirelli, Principal Software Engineer beim Open-Source-Anbieter Red Hat. Es kann schwer sein zu zeigen, warum ein KI-Modell eine bestimmte Entscheidung getroffen hat. Aber durch die Einhaltung bestimmter Standards können diese Entscheidungen leichter verständlich werden.

Auf der Suche nach Standards

Red Hat hält sich zusammen mit vielen anderen Technologieanbietern an eine Reihe von Open-Source-Standards für die Entwicklung erklärbarer KI. Zu diesen Standards gehören Decision Modeling and Notation (DMN), Business Process Modeling Notation (BPMN) und Predictive Model Markup Language (PMML).

Die Object Management Group, ein international tätiges, gemeinnütziges Technologie-Standard-Konsortium, überwacht DMN und BPMN, während die Data Mining Group, ein Data Mining-Standard-Konsortium, PMML organisiert. Die in den letzten Jahren entwickelten Normen werden regelmäßig aktualisiert.

Zusammen können die Standards dazu beitragen, verschiedene Analyse- und KI-Modelle zu definieren und diese unternehmensweit erklärbar zu machen. „Standards erfordern nicht, dass man per se ein Tool hat, das diese Standards nutzt“, sagt Tirelli.

Im Falle von PMML können Unternehmen zum Beispiel ein Modell in PMML speichern und exportieren, anstatt ein Modell mit PMML lediglich im Kopf erstellen zu müssen. Durch den Export eines Modells in PMML wird es für andere Unternehmen oder Abteilungen, die diesem Standard entsprechen, ebenfalls nutzbar.

Tirelli verweist außerdem darauf, dass es solche Standards erleichtern, Berichte darüber zu erstellen, wie ein KI-Modell funktioniert und welche Ergebnisse es liefert. Die Geschäftsanwender können dann das Modell besser verstehen.

Unternehmen wollen laut Tirelli ihre Handlungen rechtfertigen. Die Standards helfen, diese Entscheidungen zu erklären und machen sie für alle Benutzertypen einfacher. „Man muss den Anwendern zeigen, warum eine Entscheidung getroffen wird“, sagt er. Ein KI-Ethik-Framework und -Team sowie die Verwendung von KI-Standards können dabei helfen.

Die Vorteile

Mit einem effektiven KI-Ethik-Framework bekommen Unternehmen eine bessere Vorstellung, wie KI in ihre verschiedenen Geschäftsprozesse passen kann. Außerdem kann ein solches Framework helfen, das Vertrauen der Kunden zu gewinnen oder zu erhalten.

„Behandle die Daten der Kunden mit Respekt. Dann können die Verbraucher Ihrer Marke mehr vertrauen.“
Darren MannAirbiquity

Trotz weit verbreiteter Fälle von Missbrauch bei der Verarbeitung personenbezogener Daten wissen viele Verbraucher immer noch nicht genau, welche personenbezogenen Daten von Unternehmen erfasst werden und welche Auswirkungen die Preisgabe ihrer Daten hat.

„Bei Services für Unterhaltungselektronik gibt es die Tendenz, jeden Vertrag möglichst schnell durchzugehen und abzuhaken“, sagt Darren Mann, VP of Global Operations beim Telematikanbieter Airbiquity.

Ein Teil des Problems liegt bei Unternehmen und Technologieanbietern, die in der Vergangenheit nur vage informiert haben, welche Daten sie sammeln. Da immer mehr Vorschriften erlassen werden oder bestehende, wie zum Beispiel die EU-DSGVO, strenger durchgesetzt werden, sind Unternehmen gezwungen, den Verbrauchern detaillierte Informationen darüber zur Verfügung zu stellen, welche Daten erhoben und wie sie verwendet werden.

Unternehmen, die sich strikt an diese Vorschriften halten und Verbraucherdaten verantwortungsbewusst nutzen, werden laut Mann letztendlich davon profitieren. Er sieht es als „eine gute Sache“ an, die Datenschutzbestimmungen ernst zu nehmen und mit verantwortungsvollen KI- und Data-Governance-Standards zu arbeiten.

Auch wenn es den Unternehmen jetzt vielleicht noch nicht ausdrücklich zugutekommt: In naher Zukunft wird es ihnen helfen, das Vertrauen der Verbraucher zu stärken. „Behandle die Daten der Kunden mit Respekt.“, lautet das Fazit von Mann „Dann können die Verbraucher Ihrer Marke mehr vertrauen.“

Nächste Schritte

Wie Entwickler Verzerrungen in KI-Algorithmen bekämpfen.

Tuning und Wartung von Algorithmen: Die Achillesferse von KI.

Die Gratwanderung zwischen künstlicher Intelligenz und Ethik.

Erfahren Sie mehr über Data Governance

ComputerWeekly.de
Close