
NicoElNino - Fotolia
Erklärbare KI: Modelle transparent und nachvollziehbar machen
Erklärbare KI wird für Unternehmen zur Pflicht, denn Datenqualität, Transparenz und Nachvollziehbarkeit sind entscheidend, um regulatorische Vorgaben und Vertrauen zu erfüllen.
Wenn die künstliche Intelligenz (KI) einer Organisation eine Blackbox ist, könnte dies bald zum Problem werden. Da Modelle und zunehmend auch KI-Agenten in Wirtschaft und Gesellschaft eine immer größere Rolle spielen, haben ihre Ergebnisse und Entscheidungen weitreichendere Folgen – was sie zugleich stärker in den Fokus kritischer Prüfung rückt.
Erklärbarkeit wird zunehmend zur zentralen Herausforderung für Organisationen, die von der KI-Experimentierphase in die Implementierung übergehen. Unternehmen sehen sich bereits einem wachsenden Druck ausgesetzt, die Ergebnisse von Modellen nachzuvollziehen und ihre Entscheidungen transparent zu begründen. Doch dies ist erst der Anfang: Erklärbare KI entwickelt sich in einigen Regionen bereits zur gesetzlichen Pflicht, da Regierungen Gesetze erlassen, um Bürgern Einblick in maschinelle Entscheidungen über ihre Belange zu ermöglichen.
Selbst in Ländern mit zurückhaltender Regulierung zeigen Verbraucher und Aktionäre ein wachsendes Bewusstsein für algorithmische Fairness und erwarten von Unternehmen, dass sie die Funktionsweise ihrer KI-Modelle offenlegen. Weltweit haben mindestens 69 Länder mehr als 1.000 KI-bezogene politische Initiativen und Rechtsrahmen vorgeschlagen, um öffentliche Bedenken zu KI-Sicherheit und Governance zu adressieren. Während in Europa der EU-KI-Akt in Kraft getreten ist, hat Deutschland seinen KI-Aktionsplan verabschiedet, der mit 1,6 Milliarden Euro Investitionen in Forschung, Infrastruktur und Bildung die Grundlagen für verantwortungsvolle KI-Nutzung stärken soll.
Unternehmen stehen vor der Herausforderung, sich an die wandelnden Erwartungen anzupassen. Um KI-Modelle erklärbar zu machen, müssen sie zunächst sicherstellen, dass ihre Prozesse und Protokolle zur Vorbereitung der Trainingsdaten für KI einwandfrei sind – denn diese werden bald intensiven Stresstests unterzogen.
Das Streben nach hochwertigen Daten
KI-Modelle sind nur so gut wie die Daten, mit denen sie trainiert werden. Nehmen wir ein Large Language Model (LLM), das das zukünftige Verhalten von Verbrauchern vorhersagen soll. Nützliche Informationen zur Erfüllung dieser Aufgabe könnten der Wohnort einer Person sein, angegeben durch eine Postleitzahl. Eine starke Data Governance stellt sicher, dass diese Informationen in Übereinstimmung mit Vorschriften und Datenschutzstandards gesammelt und verwendet werden. Dadurch werden zuverlässige Daten bereitgestellt, die es KI-Modellen ermöglichen, genaue und faire Vorhersagen über das Verbraucherverhalten zu treffen.
Schon ein kleiner Fehler in diesen Daten könnte die Standortangaben verzerren und zu falschen Annahmen führen. Präzise, fehler- und vorurteilsfreie Daten hingegen ermöglichen der KI präzise Annahmen über Alter, Einkommensklasse oder Lebenserwartung – und tragen zu genaueren Entscheidungen bei.
Mit zunehmendem regulatorischem Druck können Fehler in diesen Daten hohe Strafen nach sich ziehen. Wird jemandem ein Kredit verweigert oder eine überraschend hohe Versicherungsprämie berechnet, wird er eine Erklärung erwarten – und Vorgaben zur Erklärbarkeit von KI werden Unternehmen dazu zwingen, diese Informationen bereitzustellen.
![]()
„Fehlendes Vertrauen in Daten erschwert die Erklärbarkeit: Wenn Organisationen ihren eigenen Daten nicht trauen, können sie weder KI-Modelle validieren noch deren Entscheidungen nachvollziehbar begründen. Das ist aber kein Trend, sondern wird zur Pflicht durch rechtlich neu geschaffene Vorgaben.“
Jens Kambor, Informatica
Wenn es nicht gelingt, eine solide Datengrundlage zu schaffen, führt dies nicht nur zu unzufriedenen Kunden, sondern in Zukunft möglicherweise auch zu Geldbußen oder behördlichen Maßnahmen. Erklärbare KI wird zur Notwendigkeit, nicht zum Trend – Unternehmen müssen ihre Datenstrategien heute richtig gestalten, um künftige Probleme zu vermeiden. Diese Rechenschaftspflicht steht im Zentrum des EU-KI-Gesetzes: Während der Großteil der Compliance-Anforderungen erst Mitte 2026 greift, traten das Verbot risikoreicher KI-Praktiken und die Pflicht zur Förderung von KI-Kompetenz bereits am 2. Februar 2025 in Kraft. Das bedeutet, dass KI-Anbieter und -Anwender sicherstellen müssen, dass ihre Teams über die erforderlichen KI-Kenntnisse verfügen, um diese Systeme verantwortungsvoll zu betreiben – andernfalls riskieren sie eine genauere Überprüfung und mögliche Strafen.
Die zentrale Herausforderung: Datenqualität
Daten sind der Treibstoff von KI-Modellen und -Agenten – und gleichzeitig eine zentrale Schwachstelle. Eine aktuelle Studie mit 600 Datenexperten aus aller Welt, darunter Chief Data Officers, ergab, dass 43 Prozent der Unternehmen angeben, dass Datenqualität, -vollständigkeit und -bereitschaft die größten Hindernisse bei der Einführung von KI darstellen. Fast alle (97 Prozent) berichteten von Problemen wie unvollständigen Eingaben (53 Prozent), Lizenzproblemen (50 Prozent) und der unbefugten Nutzung sensibler Daten (44 Prozent).
Ohne eine solide Grundlage für das Datenmanagement ist KI unverständlich und unzuverlässig. Unternehmen müssen die Quellen strukturierter und unstrukturierter Daten, die ihre KI-Modelle speisen, vollständig verstehen.
Hürden bei der KI-Erklärbarkeit
KI benötigt große Mengen dynamischer, unstrukturierter Daten – was Herausforderungen wie Daten-Drift (sich ändernde Formate/Inhalte) oder Datenformate aus verschiedenen Quellen verstärkt. Hinzu kommt ein Mangel an Fachkräften, die sowohl KI als auch branchenspezifische Anforderungen verstehen. Fehlendes Vertrauen in Daten erschwert die Erklärbarkeit: Wenn Organisationen ihren eigenen Daten nicht trauen, können sie weder KI-Modelle validieren noch deren Entscheidungen nachvollziehbar begründen.
Lösungsansätze für erklärbare KI
Um sicherzustellen, dass die Daten für die Unterstützung von KI-Modellen und -Agenten geeignet sind, müssen Unternehmen folgende Fragen klären:
- Herkunft: Stammen die Trainingsdaten aus vertrauenswürdigen Quellen?
- Compliance: Wurden personenbezogene Daten entfernt und Datenschutzvorgaben eingehalten?
- Transparenz: Kann die Datenherkunft (Data Lineage) lückenlos nachgewiesen werden?
- Bias-Prüfung: Sind Prozesse vorhanden, um Verzerrungen in Daten zu identifizieren und zu dokumentieren?
Wie KI erklärbar wird
Der Schlüssel zur Überwindung von Erklärbarkeitshürden liegt in der Stärkung der Datenbasis, der Nutzung Cloud-basierter Tools sowie Investitionen in Governance, Schulungen und hochwertige Datensätze, um das Potenzial von KI im großen Maßstab auszuschöpfen. Organisationen müssen strikte Datenmanagement-Prinzipien wie die Sicherstellung von Datenqualität, Datensicherheit, Compliance, klaren Verantwortlichkeiten und einem effektiven Datenlebenszyklusmanagement befolgen, um sicherzustellen, dass alle Informationen ganzheitlich, genau, aktuell, zugänglich und vor externen Bedrohungen geschützt sind. Denn die Datenkompetenz ist von entscheidender Bedeutung. Mitarbeiter sollten wissen, wie sie bewährte Verfahren des Datenmanagements anwenden können, und verstehen, wie wichtig Erklärbarkeit ist und wie sie erreicht werden kann. Wenn Unternehmen Vertrauen in ihre Daten haben, sind sie dem Ziel näher, die Erkenntnisse und Ergebnisse ihrer KI-Modelle nachvollziehbar zu machen.
Eine effektive und erklärbare KI-Bereitstellung erfordert einen intelligenten Ansatz im Datenmanagement, damit Organisationen auf Echtzeitdaten zugreifen können, die vertrauenswürdig und relevant sind – unabhängig davon, wo sie gespeichert sind. Metadaten-gestützte Nachverfolgbarkeit und Transparenz sind unerlässlich, um die Zuverlässigkeit durch eine klare Rechenschaftspflicht in der Datenverarbeitung zu gewährleisten.
Letztlich können KI-Modelle nur dann erfolgreich sein, wenn sie auf vertrauenswürdigen und gut verwalteten Daten basieren. Der Aufbau dieser Grundlage darf nicht länger verschoben werden. Da KI erklärbar sein muss, müssen Organisationen jetzt beginnen, ihre Daten zu verstehen und systematisch aufzubereiten.
Über den Autor:
Jens Kambor ist seit Anfang 2024 Vice President of Sales für Deutschland, Österreich und der Schweiz bei Informatica. Er kam aus den eigenen Reihen und war davor sechs Jahre als (Senior) Director Field Sales DACH tätig. Im Rahmen seiner Strategie für die DACH-Region geht es ihm vor allem darum, die Beziehungen zu den Kunden und Partnern zu vertiefen und Unternehmen auf ihrem Weg zu einem KI-gestützten und cloudbasierten Datenmanagement zu begleiten. Zuvor war er neun Jahre bei IBM in verschiedenen Management-Funktionen tätig.
Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.