AlienCat - stock.adobe.com

Vorurteile sind Schwachstellen in KI-Systemen

Sind Trainingsdaten für KI-Systeme mit vorurteilsbehafteten Informationen versehen, kommt es zu Fehlentscheidungen und Diskriminierung. Hier müssen Sicherheitsregeln greifen.

Künstliche Intelligenzen sind nicht unfehlbar und können als Verstärker von Diskriminierung und Vorurteilen wirken. Weil die Modelle nur so gut sind, wie ihre Trainingsdaten es zulassen, muss hier bereits angesetzt werden, um die Bias (Voreingenommenheit) früh zu entfernen. 

Künstliche Intelligenzen (KI) haben sich zu mächtigen Werkzeugen entwickelt, die quer durch alle Branchen Schlüsselaufgaben übernehmen. Neben prominenten Gallionsfiguren wie ChatGPT von OpenAI oder Googles Bard kommen die trainierten Algorithmen beispielsweise für Prozessoptimierungen, Monitoring, Prognosen, Früherkennung oder im Bereich IT-Security zum Einsatz. Mit der zunehmenden Bedeutung der Technologie stellt sich aber auch die Frage: Wie sehr können wir ihnen vertrauen? 

Abbildung 1: Neben den vielen Vorteilen einer KI führen falsche Daten zu Diskriminierung und systematischer Benachteiligung von Personengruppen. (Quelle: Pixabay)
Abbildung 1: Neben den vielen Vorteilen einer KI führen falsche Daten zu Diskriminierung und systematischer Benachteiligung von Personengruppen. (Quelle: Pixabay)

Die Vorteile von künstlicher Intelligenz klingen fast zu schön, um wahr zu sein – von der Automatisierung und Fehlerreduzierung über die endlose Arbeitskraft bis zu höchster Präzision und Kosteneinsparungen. Doch wo viel Licht ist, ist auch Schatten. Die rasend schnelle Entwicklung von immer besseren KIs droht ein Risiko für Gesellschaft und Menschen zu werden, dessen Ausmaße niemand abschätzen kann. Neben fehlenden grundlegenden politischen Rahmenbedingungen zum alltäglichen Einsatz liegt der Teufel dabei wie so oft im Detail, denn alle Algorithmen stehen und fallen mit ihren Trainingsdaten und der Art und Weise, wie Menschen sie konfigurieren – frei nach dem Motto Garbage in, Garbage out (frei übersetzt: gibt man Müll ein, kommt auch nur Müll heraus). Lernt ein Chatbot mit rassistischen oder sexistischen Inhalten, werden seine Antworten entsprechend ausfallen. Die Frage, wie sehr wir KIs vertrauen können, zielt letztlich darauf ab, wie sehr wir den Entwicklungsprozessen und Unternehmen vertrauen, die dahinterstehen. 

Zahlreiche Beispiele aus der jüngeren Vergangenheit haben gezeigt, dass Skepsis angebracht ist. Durch fehlerhafte Daten und falsche Verarbeitung schleichen sich Bias in KIs ein, die zu Verzerrungen der Ergebnisse führen und sich nachteilig auf Personengruppen auswirken. Eine digitale Diskriminierung ist die Folge. Das hat in der Praxis schwerwiegende Konsequenzen: In den USA identifizierte eine Software im Gesundheitswesen Afroamerikaner aufgrund ethnischer Faktoren nur halb so oft als besonders pflegebedürftig als Weiße. Zu trauriger Berühmtheit gelangte auch Amazon mit dem Versuch, potenzielle neue Mitarbeiter per KI aus den Bewerbungen herauszufiltern. Weil die Trainingsdaten hauptsächlich aus Unterlagen männlicher Bewerber bestanden, schlug die Software Frauen sehr viel seltener vor. Ob Abstammung, Geschlecht, Alter oder andere Faktoren – eine künstliche Intelligenz benötigt Trainingsdaten ohne Vorurteile. Wie kann das funktionieren?

Ein Blick nach links und rechts

Ein Ansatz, dieses Problems Herr zu werden, besteht darin, Sicherheitsregeln für das Programm einzuführen. In der Praxis kann ein Bot etwa so programmiert sein, dass er auf Fragen erst gar nicht antwortet, die zu unangemessenen Antworten führen können. Diese Shift-Right-Strategie kommt unter anderem bei ChatGPT zum Einsatz und baut auf eine Liste mit verbotenen Wörtern und Phrasen, auf die der Bot entweder gar nicht oder mit speziell antrainierten Antworten reagiert. Nach einfachen Wegen der Geldwäsche gefragt, verweist ChatGPT beispielsweise darauf, dass die KI moralische und ethische Grundsätze respektiert und keine illegalen Aktivitäten unterstützt. So weit, so gut. Dass dieses System nicht immer funktioniert, zeigen zahlreiche Beispiele von Nutzern aus der ganzen Welt. Mit der Aufgabe betraut, eine detaillierte Kriminalgeschichte zu schreiben, gibt ChatGPT beispielsweise freiwillig eine Anleitung zum Bombenbau heraus oder schreibt einen Code, der auf Grundlage von Geschlecht und Abstammung entscheidet, welche Menschen gefoltert werden dürfen und welche nicht. Abschreckende Beispiele, die zeigen, dass das unterliegende KI-Modell nicht frei von falschen Daten und Vorurteilen ist. Der Shift-Right-Ansatz versucht, diese Risiken einzugrenzen, ist aber bei weitem nicht in der Lage, eine umfassende Lösung anzubieten.

Auf der anderen Seite steht mit dem Shift-Left-Ansatz eine langfristige Strategie, die bereits am Anfang des Lernprozesses einer KI ansetzt. Im Fall von ChatGPT und anderen großen Modellen klingt das einfacher als es ist, hat der in Frage kommende Datensatz doch die Größe des Internets – abgesehen vom riesigen Umfang sind unterschwelliger Rassismus und Sexismus für eine KI schwer zu entdecken und zu entfernen. 

Paul Salazar, Couchbase

„Wir Menschen müssen KIs von rassistischen und sexistischen Vorurteilen befreien – schnell, sicher und automatisiert.“

Paul Salazar, Couchbase

Jenseits von den großen Flaggschiffen der künstlichen Intelligenz sieht der Fall allerdings etwas anders aus. Die meisten Unternehmen versuchen nicht, ein universell einsetzbares KI-Produkt zu entwickeln, sondern konzentrieren sich auf kleine Anwendungsfälle mit entsprechend überschaubaren Trainingsdaten. Aber auch dann steht der Aufwand, die Daten etwa von persönlichen Informationen wie Geschlecht oder Geburtsort händisch zu bereinigen, in keiner Relation. Ein Praxisbeispiel: Ein fiktives Unternehmen versucht, ein KI-Modell zu entwickeln, um anhand der Angaben von Mitarbeiterinnen und Mitarbeitern ein angemessenes Gehalt zu ermitteln. Um vorurteilsfreie Daten zu erhalten, sind nach dem Shift-Left-Ansatz die personenbezogenen Informationen zu entfernen, die für eine Gehaltsberechnung irrelevant sind – etwa Name, Geschlecht oder Adresse. 

Aber Hand aufs Herz: Niemand will und kann die benötigten Mengen an Trainingsdaten manuell bereinigen. Die Lösung? Automatisierung. Fügen Mitarbeiterinnen oder Mitarbeiter dem KI-Datensatz neue Dokumente hinzu oder verändern sie, greifen entsprechende Funktionen, die vorher als geschützt deklarierte Informationen automatisch entfernen. Das übergeordnete Ziel der verschiedenen Ansätze ist dabei allerdings gleich: unvoreingenommene und nicht-diskriminierende KIs.

Über den Autor: Paul Salazar ist Area VP, Central & Eastern Europe bei Couchbase

 

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

 

Erfahren Sie mehr über Künstliche Intelligenz (KI) und Machine Learning (ML)

ComputerWeekly.de
Close