phonlamaiphoto - stock.adobe.com

KI und Ethik: Wie agieren virtuelle Assistenten objektiv?

Mit der zunehmenden Implementierung von künstlicher Intelligenz (KI) wird auch über ethische Fragen diskutiert. Können KI-Systeme unvoreingenommen handeln?

Mit dem zunehmenden Einsatz von künstlicher Intelligenz (KI) nimmt die Diskussion rund um die damit verbundenen ethischen Fragen an Fahrt auf. So veröffentlichte die von der EU-Kommission berufene unabhängige Expertengruppe für Künstliche Intelligenz (KI) Ende Juni bereits erste Ergänzungsempfehlungen zu den nur zwei Monate vorher vorgelegten Ethik-Leitlinien für die Entwicklung von vertrauenswürdiger Künstlicher Intelligenz.

Ein besonderer Fokus im Umgang mit KI ist die Herausforderung, Prozesse und Entscheidungen zu vermeiden, die vorurteilsbehaftet sind und zu Diskriminierung führen. Ein Thema, mit dem sich unter anderem auch das Büro für Technikfolgen-Abschätzung beim Deutschen Bundestag (TAB) im Rahmen des Projekts Mögliche Diskriminierung durch algorithmische Entscheidungssysteme und maschinelles Lernen beschäftigt.

Während Diversität in Unternehmen bereits seit einiger Zeit ein Thema ist und sich zunehmend der Konsens entwickelt, dass diversifizierte Teams erfolgreicher sind als homogene, wird bei jedem Problem mit KI deutlich, wie wichtig es ist, einseitige, tendenziöse und vorurteilsbehaftete Trainings- beziehungsweise Input-Datensätze zu vermeiden, da diese in einem entsprechenden Output resultieren.

Ein naheliegender Ansatz, um ethisch korrekte KI-Implementierungen sicherzustellen, ist daher, aus Fehlern zu lernen.

Roboter-Papageien und PR-Albträume

Zu den bekannten Negativ-Beispielen, die weltweit Aufsehen erregten, zählen unter anderem:

  • Microsofts Chatbot Tay, der auf Twitter in weniger als 24 Stunden zu einem Holocaust-leugnenden Rassisten und Feministen-Hasser wurde. Der zugrunde liegende Algorithmus lernte dabei auf Basis der Inhalte anderer Twitter-Nutzer, mit denen Tay interagierte.
  • Ein Algorithmus, den Amazon für die Bewerberauswahl nutzte, bevorzugte systematisch männliche Bewerber. Der Grund dafür war, dass die für das Training benutzen Datensätze – Unterlagen erfolgreicher Bewerber – überwiegend von Männern stammten. Was daran lag, dass bisher vor allem Männer eingestellt worden waren und somit ein sich selbst verstärkender Kreislauf geschaffen wurde, der bestehende Vorurteile weiter zementierte.
  • Eine Foto-App von Google taggte Aufnahmen von schwarzen Menschen automatisch mit „Gorilla“. Auch hier waren mangelhafte, einseitige Trainingsdatensätze die Ursache.

Diese Vorfälle waren nicht nur ein PR-Albtraum für die betroffenen Unternehmen, sondern wurden (und werden) vielfach auch als Beweis aufgeführt für die negativen Konsequenzen einer wildgewordenen KI.

Der Fall Tay sorgte zudem für Zweifel an den Fähigkeiten von dialogfähiger KI (Conversational AI). Da der Chatbot die zweifelhaften Inhalte der anderen Twitter-Nutzer ungefiltert replizierte, wurde er in den Medien schnell als „Roboter-Papagei mit Internetverbindung“ bezeichnet.

Das Negativ-Beispiel Tay muss aber nicht bedeuten, dass Unternehmen sicherheitshalber auf limitierte Chatbots setzen sollten, die lediglich vorgegebene Antworten auf einfache Fragen liefern. Hochentwickelte digitale Assistenten sind im Gegensatz zu einfachen Chatbots in der Lage, nicht nur das Gesagte, sondern auch das Gemeinte zu verstehen sowie Äußerungen in ihrem Kontext zu erkennen und einzuordnen. Idealerweise verfügen sie über eine einprogrammierte emotionale Intelligenz und können durch angemessene Reaktionen die Werte des Anwenderunternehmens reflektieren.

Was aber müssen Organisationen tun, die von den Vorteilen dialogfähiger digitaler Assistenten profitieren wollen, ohne inhärente Diskriminierung oder gar einen KI-Gau im Sinne der oben genannten Beispiele zu riskieren? Im Wesentlichen gilt es, die folgenden Punkte zu beachten und Prozesse zu implementieren, die deren Umsetzung sicherstellen:

1. KI als Teil einer Gesamtstrategie betrachten

Unternehmen, die intelligente virtuelle Assistenten einsetzen, müssen vorab genau definieren, welche Fähigkeiten und Qualitäten diese haben sollen, mit welchen Zielgruppen sie interagieren und welchen Zweck sie im Rahmen der unternehmerischen Gesamtstrategie erfüllen sollen. Denn egal ob sie intern oder im Kundenkontakt eingesetzt werden – konversationsfähige virtuelle Assistenten werden durch die Interaktion mit Mitarbeitern und/oder Kunden zwangsläufig zu Markenbotschaftern.

Im Gegensatz zu einfachen Chatbots können hochentwickelte intelligente Assistenten wie Amelia von IPsoft dahingehend trainiert werden, die Werte, Ziele und Kultur eines Unternehmens zu repräsentieren. Das setzt voraus, dass ein Unternehmen entsprechende Leitlinien definiert hat und sich ihrer bewusst ist – schließlich können auch menschliche Mitarbeiter die Unternehmenswerte nur dann leben, wenn sie diese kennen.

Und genau wie beim Menschen reicht es nicht aus, nur zu Beginn seiner Tätigkeit über Unternehmenswerte und –richtlinien zu informieren. Um sicherzustellen, dass das diesbezügliche Wissen jederzeit aktuell ist, bedarf es kontinuierlicher Informationen und Trainings.

2. Adäquate Trainingsdaten bereitstellen

Die Sammlung und Bereitstellung adäquater initialer Trainingsdaten stellt vermutlich die größte Herausforderung für KI-Entwickler dar. Auch die Big-Player, die über riesige Datenmengen ebenso verfügen wie über Heerscharen hochqualifizierte Programmierer, sind nicht gefeit vor dramatischen Fehlentwicklungen – das zeigen die Beispiele von Microsoft, Amazon und Google.

Denn auch wenn KI theoretisch dazu in der Lage ist, menschliche Vorurteile auszuschalten und durch datenbasierte Objektivität zu ersetzen, kann sie dies nur, wenn die Daten, mit denen sie trainiert wird, entsprechend vielfältig, korrekt, aktuell und repräsentativ sind.

„Denn nur in ihrer Gesamtheit stellen die Daten eine adäquate Basis dar, auf der einerseits die Versprechen lernender Systeme verwirklicht und andererseits Risiken wie beabsichtigte oder unbeabsichtigte Diskriminierung verhindert werden können. Verzerrungen der Datensätze können die Lernresultate von Algorithmen ändern”, heißt es in einem ein im Auftrag der Bertelsmann Stiftung erstellten Arbeitspapier mit dem Titel Damit Maschinen den Menschen dienen (PDF).

Auch eine vom Bundesministerium für Bildung und Forschung geförderte Rechtsexpertise zum Thema Diskriminierungsrisiken durch Algorithmen (PDF) warnt davor, dass ausgerechnet beim Einsatz von Objektivität versprechenden Technologien unbeabsichtigte zusätzliche Diskriminierungsrisiken entstehen könnten, wenn keine effektive, menschliche Regulierung stattfindet.

Der Mensch als Korrektiv ist zum einen gefragt, wenn es um die Bereitstellung ausgewogener Trainingsdaten geht, zum anderen, um den Selbstlernprozess der KI kontinuierlich zu kontrollieren (siehe Punkt 4). Nur geeignete Trainingsdaten (Input) befähigen intelligente Assistenten dazu, einen Prozess nicht nur rein funktional auszuführen, sondern auch vorurteilsfreie Ergebnisse zu generieren (Output), die den Werten und Zielen des Anwenderunternehmens entsprechen. 

3. Ein diversifiziertes Team zusammenstellen

Ein diversifiziertes Team kann maßgeblich dazu beitragen, dass ausgewogene, integrative Trainingsdatensätze generiert werden. Gerade bei KI-Anwendungen wie Conversational AI, also digitalen Assistenten, die mit Menschen kommunizieren, zahlt es sich aus, wenn an der Entwicklung und Umsetzung Mitarbeiter mit möglichst vielfältigen Hintergründen beteiligt sind.

Das betrifft nicht nur Merkmale wie Alter, Geschlecht und Ethnie, sondern auch den fachlichen Background. Natürlich braucht man zum Beispiel Programmierer*innen – aber auch Grafikdesigner*innen, Texter*innen, Business-Architekten*innen, Fachexperten*innen und Datenschutzbeauftragte.

Gleichzeitig gilt es, die Zielgruppe im Blick zu behalten. Angenommen, eine Versicherung möchte einen virtuellen Assistenten entwickeln, der potenzielle und bestehende Kunden bei der Auswahl passender Versicherungen berät und Schadensmeldungen bearbeiten soll.

Der virtuelle Versicherungsberater eines InsureTech Start-ups, das On-Demand Reiseversicherungen an junge Backpacker*innen verkaufen möchte, wird anders designt sein und einen anderen Sprachduktus haben als der digitale Berater eines etablierten großen Versicherungskonzerns mit umfassendem Portfolio und einer sehr breiten Zielgruppe.

In jedem Fall stellt sich aber die Frage, wie inklusiv nicht nur die Trainingsdaten im Backend sein müssen, sondern auch, wie die grafische Frontend-Schnittstelle designt ist. Soll es ein Avatar sein, der einen Menschen repräsentiert? Einen Mann oder eine Frau? Mit welcher Hautfarbe und in welchem Alter? Oder ein abstrakter neutraler Avatar, etwa ein animiertes Logo oder Wappentier? Es gibt zahllose Möglichkeiten – entscheidend ist, diejenige auszuwählen, die zum Unternehmen, zu seinen Werten, Zielen und Zielgruppen passt.

4. Managed Self-Learning-Ansatz nutzen

Eine Möglichkeit, das Potenzial von Machine Learning (ML) vollständig zu nutzen, ohne ein Tay-Desaster wie Microsoft zu riskieren, ist das kontrollierte Selbstlernen, auch Managed Self-Learning genannt. Das bedeutet, dass ein virtueller Assistent zunächst über einen festgelegten Datensatz (siehe Punkt 2) trainiert wird, sozusagen seine Grundausbildung erhält.

Ein intelligentes System zeichnet sich jedoch dadurch aus, dass es durch jede einzelne Nutzerinteraktion dazulernt und kompetenter wird. Um sicherzugehen, dass das Gelernte den funktionalen und ethischen Vorstellungen entspricht, in jeder Hinsicht korrekt ist und vom System auch zukünftig verwendet werden soll, muss beim Managed Self-Learning immer ein Mensch als Kontrollinstanz das neu erworbene Wissen prüfen und freigeben.

Ein Beispiel: Um die Wartezeit für Kunden eines großen Telekommunikationsanbieters drastisch zu reduzieren, wird im Callcenter ein virtueller Mitarbeiter eingesetzt, der die häufigsten Kundenanfragen und –anliegen bearbeiten kann.

Seit kurzem gibt es immer häufiger Anfragen nach 5G-fähigen Handys. Da der digitale Assistent hierfür noch nicht trainiert wurde, übergibt er das Gespräch an einen menschlichen Mitarbeiter und merkt sich den folgenden Ablauf – also etwa, dass der Mitarbeiter dem Kunden drei bestimmte Smartphone-Modelle zur Auswahl anbietet. Ein anderer Mitarbeiter wiederum beantwortet die Frage dahingehend, dass es noch keine 5G-fähigen Handys gebe und der Kunde sich in ein paar Wochen nochmals melden solle.

Die KI hat nun zwei Antwortmodelle gelernt, die sie bei der nächsten Anfrage selbst einsetzen könnte. Durch die menschliche Kontrollinstanz beim Managed Self-Learning ist gewährleistet, dass nur die gewünschte korrekte Antwortversion in die Wissensbibliothek des digitalen Assistenten aufgenommen und bei zukünftigen Anfragen genutzt wird.

Johan Toll, IPsoft

„Der Mensch als Korrektiv ist zum einen gefragt, wenn es um die Bereitstellung ausgewogener Trainingsdaten geht, zum anderen, um den Selbstlernprozess der KI kontinuierlich zu kontrollieren.“

Johan Toll, IPsoft

Dieses Vorgehen stellt nicht nur sicher, dass selbstlernende Systeme korrekte prozessorientierte Entscheidungen treffen, sondern lässt sich genauso auch im Hinblick auf Tonalität und Vokabular anwenden.

Mittel- und langfristig von KI profitieren

Die Implementierung einer ethisch verantwortungsvollen KI ist ein umfassender und aufwendiger Prozess, der jedoch letztendlich der gesamten Organisation zugutekommt. Alle hier beschriebenen Schritte erfordern, dass ein Unternehmen sich eingehend mit den eigenen Werten und Ressourcen befasst, was dazu beitragen kann, dass es insgesamt seine ethischen Standards anhebt.

Zudem minimieren Unternehmen durch die Beachtung der oben genannten Prinzipien nicht nur das Risiko von Reputationsschäden durch einen KI-Gau, sondern profitieren mittel- und langfristig von besseren Ergebnissen ihrer KI-Investitionen.

Über den Autor:
Johan Toll, Executive Director Transformations bei IPsoft, verfügt über mehr als 30 Jahre Berufserfahrung im IT-Sektor und ist ein gefragter Experte und Sprecher zum Thema kognitive künstliche Intelligenz. In einem sich rasant entwickelnden technologischen Umfeld berät er Organisationen dazu, wie sie künstliche Intelligenz einsetzen, hybride Teams aus menschlichen und digitalen Mitarbeitern aufbauen und die Chancen der Digitalisierung für sich nutzen können.

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder und entsprechen nicht unbedingt denen von ComputerWeekly.de.

Nächste Schritte

Die Gratwanderung zwischen künstlicher Intelligenz und Ethik.

Wie trifft künstliche Intelligenz eigentlich Entscheidungen?

Künstliche Intelligenz erfordert viel Vorarbeit.

Erfahren Sie mehr über Datenverwaltung

ComputerWeekly.de
Close