phonlamaiphoto - stock.adobe.com

Künstliche Intelligenz (KI) muss verantwortungsvoll arbeiten

Wie verantwortungsvoll läuft die Entwicklung künstlicher Intelligenz (KI) aktuell ab und was braucht es künftig? Eine Studie liefert Erkenntnisse über den Status quo.

Menschen machen Fehler. In manchen Bereichen wiegen Fehlentscheidungen schwerer als in anderen. Deshalb werden Prozesse zur Qualitätssicherung implementiert und das Vier-Augen-Prinzip umgesetzt – in der Hoffnung, dass mindestens eine beteiligte Person Fehler oder Probleme erkennt. Der Faktor Mensch ist von entscheidender Bedeutung. Wo künstliche Intelligenz (KI) eingesetzt wird, fehlt dieser.

Dementsprechend vorsichtig müssen Entwickler und Nutzer von künstlicher Intelligenz sein, um deren Möglichkeiten verantwortungsvoll einzusetzen. Doch wie sieht der Status quo aus? Wie stellen Unternehmen sicher, dass ihre KI keine moralischen Grenzen überschreitet? Diesen Fragen geht die Studie The State of Responsible AI: 2021 von Corinium und FICO auf den Grund, in der weltweit 100 Führungskräfte aus dem Bereich Analytik und Daten befragt wurden.

Auch kleine Details können zu großen Problemen führen

Viele denken bei der Frage nach ethischer KI schnell an Szenarien, die sie aus den Filmen I am Robot oder Terminator kennen. Momente, in denen die Maschinen selbstständig denken und lernen und völlig unabhängig von ihren Schöpfern ein Bewusstsein entwickeln. Während diese Vorstellung in das Reich der Traumfabrik Hollywood gehört, beginnen die echten Herausforderungen im ethischen Umgang mit künstlicher Intelligenz viel früher.

Alleine die Frage, auf Basis welcher Daten KI Entscheidungen trifft, kann enorme Auswirkungen haben. Werden beispielsweise irrelevante oder irreführende Daten genutzt, können diese ungewollt dazu führen, dass das KI-Modell diskriminierende Entscheidungen trifft. Der Reputationsverlust und damit einhergehende Umsatzeinbußen können für Unternehmen verheerend sein.

Ein Beispiel: Enthalten die Daten eines KI-Modells die Marke und die Version des Handys der registrierten Personen, kann das ein Indikator dafür sein, ob sich jemand ein teures Handy leisten kann – Rückschlüsse auf das Einkommen werden ermöglicht.

Damit aber beispielsweise Personen mit geringem oder hohem Einkommen nicht in irgendeiner Weise benachteiligt werden, muss sichergestellt werden, dass auch Stellvertreterdaten, wie zum Beispiel das Handymodell, diese Informationen nicht in die Datenbasis einbringen. Vor allem kleine Details werden schnell übersehen. Deswegen ist es wichtig, von der Entwicklung bis zum Einsatz genau darauf zu achten und damit den verantwortungsvollen Umgang mit KI zu gewährleisten.

Wie steht es um verantwortungsvolle KI?

Um es direkt zu sagen: nicht gut. Die Studie zeigt, dass knapp zwei Drittel aller befragten Unternehmen (65 Prozent) nicht erklären können, wie ihre KI-Modelle funktionieren oder zu Entscheidungen kommen. Ohne dieses Wissen ist es aber gar nicht möglich, zu erkennen, ob und wann KI-Entscheidungen ethisch vertretbar sind oder nicht.

Da verwundert es nicht, dass nur jedes fünfte befragte Unternehmen seine KI-Modelle aktiv unter ethischen Gesichtspunkten überwacht. Diese Zahlen zeichnen noch ein düstereres Bild, wenn man berücksichtigt, wie rasant der Einsatz von künstlicher Intelligenz voranschreitet: 49 Prozent der Befragten gaben an, dass ihr Unternehmen KI im großen Maßstab einsetzt oder zumindest damit begonnen hat, den Einsatz nach oben zu skalieren. Je häufiger KI zum Einsatz kommt, desto wichtiger wird die Überwachung der KI-Modelle.

Woran liegt es also, dass trotz der großen Akzeptanz und Beliebtheit von KI das Bewusstsein für den verantwortungsvollen Umgang mit ihr fehlt? Eine mögliche Erklärung geben die Studienergebnisse: So gibt es unter Führungskräften keinen Konsens darüber, welche Verpflichtungen ein Unternehmen im Zusammenhang mit KI hat.

Immerhin 43 Prozent der Befragten geben an, dass sie über die Einhaltung von Vorschriften hinaus keine Verantwortung für den ethischen Umgang mit KI-Systemen haben. Da die Entscheidungen, welche die Modelle treffen, teilweise enorme Auswirkungen auf das Leben von Menschen haben können, ist dieses Minimalprinzip allerdings bedenklich. Gehen Anwender und Entwickler künstlicher Intelligenz nicht von sich weitere Schritte, wenn es um den ethischen Umgang mit KI geht, werden in Zukunft weitere Regularien nötig sein. 

Der Weg zu verantwortungsvollem Umgang mit KI

Auch wenn der Status quo bei ethischer KI noch nicht rosig aussieht, bleibt ein Lichtblick: Die Verantwortlichen sind sich immerhin der zwingend nötigen ethischen Ausrichtung von KI bewusst. So geben 21 Prozent an, dass KI-Ethik schon heute ein wichtiger Teil ihrer Business Strategie ist. Knapp zwei Drittel (63 Prozent) gehen davon aus, dass das bei ihnen spätestens in den nächsten zwei Jahren der Fall sein wird.

Um den verantwortungsvollen Umgang mit KI auch in die Praxis umzusetzen, ist das Verständnis der Modelle elementar. Denn nur Unternehmen, die lückenlos verstehen, wie ihre Modelle zu Entscheidungen kommen, können gewährleisten, dass KI-basierte Entscheidungen auch ethisch sind.

Dieses Verständnis zu schaffen, ist in der Praxis aber schwerer als erwartet. Denn viele KI-Verantwortliche sehen sich schon bei der Einhaltung der aktuell geltenden Vorschriften, also dem Minimum, herausgefordert: Nicht einmal ein Drittel (31 Prozent) der Befragten haben effektive Compliance-Prozesse in ihren KI-Projekten etabliert – 68 Prozent haben also keine. Und knapp die Hälfte der Studienteilnehmer (46 Prozent) bezeichnen ihre Compliance-Prozesse als ineffektiv.

Noch erschreckender: 26 Prozent der Befragten gaben an, dass ihre Prüfpfade für die Modellentwicklung stellenweise lückenhaft sind, vier Prozent nutzen keine standardisierten Prüfpfade. Das bedeutet, dass vielfach nur die entwickelnden Datenwissenschaftler verstehen, was in den eingesetzten KI-Modellen passiert.

Blockchain – Dokumentation und Nachvollziehbarkeit für verantwortungsvolle KI

Blockchain ist für diese Herausforderungen ein möglicher Lösungsansatz. Die Technologie lässt sich beispielsweise zur Orchestrierung und Durchsetzung von Modell-Prüfpfaden und als Aufzeichnungssystem für alle Schritte der Modellentwicklung einsetzen. Dabei werden alle wichtigen Punkte für alle Beteiligten protokolliert: Wie groß ist der Datenbestand? Welcher Datenumfang wurde verwendet? Welche Tests wurden durchgeführt, um sicherzustellen, dass es keine Datenprobleme oder Anomalien in den Daten gibt? So ist von der Beschaffung der Daten über die Prüfung auf Verzerrungen und die Freigabe des Modells bis hin zur Prüfung der Entscheidungen des Modells alles in der Blockchain dokumentiert und nachvollziehbar.

Dr. Scott Zoldi, FICO

„Es bleibt zu hoffen, dass sich KI-Verantwortliche der hohen Verantwortung bewusst werden und neue Wege gehen, um ihre KI-Modelle nachvollziehbar zu machen.“

Dr. Scott Zoldi, FICO

Es bleibt zu hoffen, dass sich KI-Verantwortliche der hohen Verantwortung bewusst werden und neue Wege gehen, um ihre KI-Modelle nachvollziehbar zu machen. Das ist die Basis für ethische und verantwortungsvolle KI. Leiten sie jetzt die nötigen Schritte in die Wege, könnte der nächste Report zum Status verantwortungsvoller KI vermutlich schon positiver aussehen.

Über den Autor:
Dr. Scott Zoldi ist Chief Analytics Officer bei FICO und verantwortlich für die analytische Entwicklung der Produkt- und Technologielösungen von FICO. Während seiner Tätigkeit im Unternehmen war Scott Zoldi bisher für die Entwicklung von mehr als 100 Analytics Patenten verantwortlich, von denen 65 erteilt und 45 eingereicht wurden. Scott Zoldi ist Mitglied in den beiden Vorständen von Software San Diego und Cyber Center of Excellence. Er hat seinen Doktortitel in theoretischer und rechnergestützter Physik an der Duke University erworben. Er bloggt unter www.fico.com/blogs/author/scott-zoldi.

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

Erfahren Sie mehr über Künstliche Intelligenz (KI) und Machine Learning (ML)

ComputerWeekly.de
Close