Laurent - stock.adobe.com

Was ist KI-Bias und warum ist es wichtig?

Der Hype um künstliche Intelligenz (KI) ist groß. Doch ein erhebliches Risiko sind falsche oder verzerrte Ergebnisse. Mit entsprechendem Wissen lässt sich dieser KI-Bias vermeiden.

Vorurteile und Fehler sind nicht nur menschlich, sondern auch Eigenschaften von schlecht trainierten KI-Anwendungen. Doch wie kommt es dazu und warum sollte sich die IT darum kümmern?

Eine kurze Einführung in KI-Lernmodelle

Um zu verstehen, wie Verzerrungen bei künstlicher Intelligenz entstehen, hilft ein Blick auf die drei grundlegenden Trainingsmethoden:

Überwachtes Lernen

Die Eingabedaten sind beim überwachten Lernen mit einer Art Etikett versehen. Dadurch weiß das KI-System, wie auf Basis des Datensatzes und der Kennzeichnungen die Ausgabe aussehen sollte. Es nutzt dieses Wissen, um andere Werte vorherzusagen. Innerhalb dieser Kategorie gibt es zwei Haupttypen von Algorithmen. Einer basiert auf Klassifizierung, wobei die Daten anhand von Attributen wie Farbe, Größe und Form in Kategorien eingeteilt werden. Häufige Anwendungen dafür sind die Erkennung von Bildern oder Spam sowie die Filterung von E-Mails. Der andere Typ verwendet mathematische Regression, um Muster zu erkennen, die auf einer linearen Beziehung zwischen Eingabe und Ausgabe beruhen. Hier wird die Ausgabe außerhalb des Modells kategorisiert. Diese Methode wird oft für Markttrends oder Wettervorhersagen eingesetzt.

Unüberwachtes Lernen

Das KI-System erhält keine Hinweise auf die Art der Daten. Es soll selbst Muster und Beziehungen erkennen und ein Ergebnis ermitteln. Unüberwachte Lernalgorithmen stützen sich auf zwei Techniken: Clusterung und Assoziation. Bei der Clusterung teilt das System Daten auf der Grundlage von Ähnlichkeiten so in Gruppen auf, dass diese nur wenige oder keine Ähnlichkeiten mit anderen Gruppen aufweisen. So lässt sich etwa das Kaufverhalten von Kunden analysieren. Bei der Assoziation soll das System Beziehungen zwischen Daten finden, zum Beispiel Abhängigkeiten. Hier geht es ausschließlich um Korrelation, nicht um Ursachen. Diese Methode kommt häufig bei Web Usage Mining zum Einsatz.

Bestärkendes Lernen

Die Kombination von überwachtem und unüberwachtem Lernen soll die Nachteile beider Verfahren reduzieren. Hier erhalten die Systeme unbeschriftete Daten, die sie untersuchen. Ihre Ergebnisse werden dann von Menschen positiv oder negativ bewertet. So lernt das System, seine Entscheidungen zu verbessern. Das Modell des bestärkenden Lernens entspricht am ehesten dem menschlichen Lernen, wie in der Schule. Häufige Anwendungen sind Videospiele, Robotik und Text Mining.

So entstehen Vorurteile bei KI

In der Regel entstehen verzerrte Ergebnisse dadurch, dass Menschen im Trainingsprozess involviert sind. Zum Beispiel können beim überwachten Lernen die Eingabedaten falsch etikettiert sein. Neben absichtlichen Fehlern liegt dies an mangelndem menschlichem Urteilsvermögen, etwa wenn ein Panther oder eine Katzenstatue als Katze bezeichnet werden. Beim verstärkten Lernen führt auf ähnliche Weise die falsche Bewertung einer Antwort ebenfalls zu KI-Bias. Doch selbst unüberwachtes Lernen erzeugt erfundene Ergebnisse, wenn die KI Zusammenhänge erkennt, wo tatsächlich keine sind.

Dieses Problem der Verzerrung hat nicht nur Auswirkungen auf die generative KI wie ChatGPT, sondern auch auf die Telemetrie zur Automatisierung von Systemen und Diensten. Für die Analyse von Telemetriedaten werden KI-Modelle meist anhand von Daten trainiert, die mit einem Label versehen wurden. Verzerrte Ergebnisse können durch:

  • eine falsche Kennzeichnung der Daten;
  • eine unzureichende Datenvielfalt in einer bestimmten Kategorie;
  • oder die Methode zur Einführung neuer Daten entstehen.

Dass falsche Kennzeichnungen bei ausreichend großer Menge zu verzerrten Ergebnissen führen, liegt auf der Hand. Das Problem bei geringer Datenvielfalt ist eine falsche Korrelation durch Zufälle. Ein klassisches Beispiel war ein KI-Modell, das Panzer von anderen Fahrzeugen unterscheiden sollte. Da alle Panzer bei Tageslicht fotografiert wurden, andere Fahrzeuge jedoch nicht, nahm die KI Tag und Nacht als Unterscheidungsmerkmal. Entsprechend überrascht es nicht, dass laut dem State of Application Strategy Report 2023 (PDF) von F5 mehr als die Hälfte aller Unternehmen „fehlende Daten“ als eine der größten Herausforderungen bei der Gewinnung benötigter Erkenntnisse nennt.

Lori MacVittie, F5

„Fehlende Daten, sei es durch selektives Monitoring oder durch die eigenwillige Zusammenstellung von Metriken, verfälschen möglicherweise die Ergebnisse von KI-Modellen, die als Grundlage operativer Entscheidungen verwendet werden.“

Lori MacVittie, F5

Durch die Methode zur Einführung neuer Daten können ebenfalls Verzerrungen entstehen. Das häufigste praktische Beispiel hierfür ist die Verwendung der Ergebnisse synthetischer Tests, um die durchschnittliche Performance einer Anwendung zu bestimmen, sowie die Nutzung des daraus resultierenden Modells zur Analyse des realen Datenverkehrs. Je nach Umfang der Standorte, Geräte, Netzüberlastung und so weiter, die den Datensatz aus den synthetischen Tests bilden, kann eine vollkommen akzeptable Leistung für reale Nutzer als unzureichend gewertet werden oder umgekehrt.

Das Risiko für die digitale Transformation

Diese Gefahren zu kennen und mit geeigneten Methoden zu vermeiden, ist für die weitere digitale Transformation der Unternehmen von entscheidender Bedeutung. Denn sonst besteht das Risiko, dass das Vertrauen in moderne Technologien wie KI schwindet, die als Multiplikatoren wirken. Sie ermöglichen die Skalierung und Effizienz, die für digitalisierte Geschäftsprozesse notwendig sind. Wenn die KI immer wieder falsche Antworten gibt oder unzureichende Lösungen vorschlägt, wird ihr niemand mehr vertrauen. Aus diesem Grund ist eine Full-Stack Observability (FSO) nicht nur wünschenswert, sondern eine der sechs wichtigsten technischen Fähigkeiten von Unternehmen, um die dritte Phase der digitalen Transformation zu erreichen: durch KI unterstützte Geschäftsprozesse.

Fehlende Daten, sei es durch selektives Monitoring oder durch die eigenwillige Zusammenstellung von Metriken, verfälschen möglicherweise die Ergebnisse von KI-Modellen, die als Grundlage operativer Entscheidungen verwendet werden. Eine sorgfältige Auswahl der Datenquellen und -typen in Verbindung mit einer umfassenden Daten- und Observability-Strategie trägt wesentlich dazu bei, Verzerrungen zu vermeiden sowie genauere und vertrauenswürdige Ergebnisse zu erzielen.

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

Erfahren Sie mehr über Anwendungs- und Plattformsicherheit

ComputerWeekly.de
Close