NicoElNino - Fotolia

Europäische Firmen: Sorge um Ethik und Vorurteile generativer KI

Beim Einsatz generativer KI sind noch viele Hürden zu nehmen, damit sichere, faire und nutzbringende Resultate gewährleistet werden können. Es gibt aber regionale Unterschiede.

Generative künstliche Intelligenz (KI) ist der derzeitige Technologie-Hype. Dabei ist sie weder die am weitesten verbreitete noch die ausgereifteste Technologie – zumindest noch nicht. Dennoch erkennen die meisten Unternehmen die Bedeutung von generativer KI und planen, diese möglichst schnell einzusetzen.   

Organisationen stehen derzeit unter Druck, den Mehrwert des Einsatzes von generativer KI zu belegen und mit dem Wettbewerb mitzuhalten. Nichtsdestotrotz sind sie sich auch der unbeabsichtigten Risiken bewusst, die nur schwer vorherzusagen sind. Wie ernst diese Unternehmen ihre Verantwortung hinsichtlich generativer KI nehmen, hängt auch von der geografischen Lage ab.

Länderunterschiede beim Thema KI

Die Welt erlebt eine Kluft zwischen zwei der größten Wirtschaftsregionen: der Europäischen Region und Nordamerika. Auf beiden Seiten des Atlantiks macht man sich Gedanken über die ethischen, fairen und sicherheitstechnischen Implikationen der generativen KI. Die getroffenen Maßnahmen unterscheiden sich jedoch erheblich.

Unternehmen in den USA und Kanada scheinen dabei hart durchzugreifen und schnell zu handeln, um von dem anfänglichen geschäftlichen Nutzen der generativen KI zu profitieren. In den USA gibt es einen Flickenteppich von weniger strengen Vorschriften auf staatlicher Ebene. Die jüngste Durchführungsverordnung von US-Präsident Joe Biden zur KI wurde als weitreichend beschrieben, wobei die künftigen Auswirkungen noch spekulativ sind.  

Währenddessen müssen europäische Unternehmen aufgrund bestehender Vorschriften über die Verwendung von Daten, wie der Datenschutz-Grundverordnung (DSGVO), vorsichtiger agieren. Das KI-Gesetz der EU ist seit mehreren Jahren in Arbeit. Anfang Dezember erzielten die EU-Staaten eine Einigung beim AI Act. Zuvor gingen die Bedenken der Regulierungsbehörden so weit, dass beispielsweise Italien ChatGPT in seinem Land aufgrund von Datenschutzbedenken vorübergehend abgeschaltet hatte.

Tatsache ist, dass die Regulierungsbehörden die KI bis zu einem gewissen Grad einschränken, auch wenn sich das je nach Region sehr unterschiedlich ausprägen wird. Im Gegensatz zu dem rasanten Start der US-Unternehmen legen die europäischen Firmen so eine solide Grundlage für langfristigen Erfolg. Dieser Weg könnte dazu beitragen, einige der unsichtbaren, aber unvermeidlichen Hindernisse zu umgehen.

Führungskräfte sollten um KI-Datensicherheit besorgt sein

Wirtschaftsführer auf beiden Kontinenten haben öffentlich ihre Besorgnis über die Datenschutz- und Sicherheitsaspekte der generativen KI zum Ausdruck gebracht. Der populistische Charakter von Tools wie ChatGPT – offen für jeden Nutzer mit einem Rechner –  hat zu einem umfangreichen Testing geführt. Das Ergebnis: Datenwissenschaftler und Hacker finden routinemäßig neue Wege, generative KI-Tools zu manipulieren, ihre Schutzmechanismen zu durchbrechen und sensible Daten preiszugeben.  

Forscher, mehrheitlich Teil des DeepMind-Projekts von Google, fanden heraus, dass sie private Trainingsdaten von ChatGPT extrahieren konnten: Sie ließen einfach das Wort Gedicht über einen langen Zeitraum wiederholen. Laut den Forschern funktionierte diese Technik bei offenen, geschlossenen und halboffenen großen Sprachmodellen (LLM). Diese Art von Experimenten wird Führungskräften schlaflose Nächte bereiten, wenn es an der Zeit ist, generative KI-Modelle auf ihren unternehmenseigenen Daten zu trainieren.

 

Generative KI erfordert eine Führung von oben

Die Sicherheitsbedrohungen und sozialen Risiken generativer KI wie unbeabsichtigte Diskriminierung, legen nahe, dass deren rechtlicher und faktischer Ordnungsrahmen von der Unternehmensleitung oder sogar vom Vorstand überwacht werden muss. Denn die Technologie ist nicht nur eine Angelegenheit für IT-Fachleute oder Entwickler von Inhalten. Indem sie wichtige Aufgaben und Botschaften in die Hände eines Algorithmus legen, riskieren Unternehmen ihren Ruf. 

Balakrishna D.R., Infosys

„Es gibt eine Reihe von Herausforderungen, die Unternehmen im Blick haben sollten, wenn sie sich mit generativer KI beschäftigen – insbesondere im Hinblick darauf, wie sie damit Werkzeuge, Produkte und Dienstleistungen entwickeln. Mit einem vorsichtigen, sorgfältigen Ansatz sollten Unternehmen jedoch in der Lage sein, einen echten geschäftlichen Nutzen aus dieser transformativen Technologie zu ziehen.“

Balakrishna D.R., Infosys

KI-Trainingsdaten, die Verzerrungen enthalten, führen aller Wahrscheinlichkeit nach auch zu verzerrten Ergebnissen. Außerdem hat sich gezeigt, dass generative KI manchmal Informationen halluziniert. Das heißt, dass sie Ergebnisse hervorbringt, die kleine bis schwerwiegende Fehler enthalten. Das könnte das Image eines Unternehmens gefährden oder Führungskräfte dazu bringen, Entscheidungen auf Grundlage falscher Daten zu treffen. 

In einigen Fällen ist das Vertrauen in die Fähigkeiten der KI einfach zu groß. Diese Annahme ist besonders gefährlich, wenn sie mit automatisierten Entscheidungsprozessen einhergeht. In den USA verklagen zwei Familien ein großes Gesundheitsunternehmen, weil es ihren Angehörigen auf Grundlage eines fehlerhaften KI-Modells rechtswidrig die medizinische Versorgung verweigert hat. Und die US-Zeitungskette Gannett stoppte ihre generativen KI-Experimente, nachdem eine Reihe unpassender Schulsportartikel in großen Zeitungen und auf Nachrichtenseiten veröffentlicht worden war.

Europa ist gut aufgestellt

Im Gegensatz zu ihren amerikanischen Wettbewerbern, hatten europäische Unternehmen keine andere Wahl, als vorsichtiger im Umgang mit generativer KI vorzugehen. Dies beunruhigt viele Unternehmensleiter. Vor kurzem veranstaltete die International Association of Privacy Professionals eine Sitzung mit dem provokanten Titel Can Generative AI Survive the GDPR?

Angesichts des rasanten Starts nordamerikanischer Unternehmen scheint es jedoch wahrscheinlich, dass die europäischen Regulierungsbehörden sicherstellen müssen, dem Einsatz generativer KI einen Weg zu ebnen, insbesondere bei Anwendungsfällen, deren Wert auf Billionen US-Dollar geschätzt werden. Darüber hinaus scheint es ebenso wahrscheinlich, dass die staatlichen Leitplanken – in Kombination mit der Kontrolle durch die Unternehmen auf höchster Ebene – Organisationen ein größeres Maß an Vertrauen in Bezug auf das Risiko, dem sie ausgesetzt sind, bieten werden. 

Dieser konservativere Ansatz bietet europäischen Unternehmen Vorteile wie ein größeres Vertrauen in ihre Fähigkeit, ihre generativen KI-Projekte zu verwalten und zu kontrollieren. Damit lassen sich vielleicht viele der versteckten Hindernisse vermeiden, die unweigerlich auftreten werden. 

Es gibt eine Reihe von Herausforderungen, die Unternehmen im Blick haben sollten, wenn sie sich mit generativer KI beschäftigen – insbesondere im Hinblick darauf, wie sie damit Werkzeuge, Produkte und Dienstleistungen entwickeln. Mit einem vorsichtigen, sorgfältigen Ansatz sollten Unternehmen jedoch in der Lage sein, einen echten geschäftlichen Nutzen aus dieser transformativen Technologie zu ziehen.

Über den Autor:
Balakrishna D.R. ist Senior Vice President und leitet die Belieferung für den ECS-Geschäftsbereich von Infosys für die Energie-, Versorgungs-, Telekommunikations-, Medien-, Unterhaltungs- und Dienstleistungsindustrie. Darüber hinaus leitet er die KI- und Automationsabteilung von Infosys und treibt die interne Automation bei dem Unternehmen voran.

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

Erfahren Sie mehr über Business Intelligence

ComputerWeekly.de
Close