NicoElNino - Fotolia

Generative KI: Diese Faktoren sollten Sie im Blick haben

Generative künstliche Intelligenz setzt sich rasant schnell durch und Firmen müssen unbedingt wichtige Faktoren beachten, die zu Problemen führen können, welche zu verhindern sind.

Während ChatGPT in weniger als einer Woche eine Millionen Nutzer erreicht hat – und damit die Geschwindigkeit der Einführung aller bisherigen Technologien übertrifft – sind viele Unternehmen noch nicht in der Lage, das transformative Potenzial generativer KI zu nutzen. Der Grund: Sie müssen sich mit rechtlichen, ethischen, sicherheitsrelevanten, datenschutzrechtlichen und einer Reihe anderer Fragen auseinandersetzen, bevor diese in großem Umfang eingesetzt werden kann.

Nachfolgend sind einige wichtige Faktoren im Zusammenhang mit generativer KI aufgeführt und wie Unternehmen sie angehen können:

Bedenken in Bezug auf Urheberrecht und geistiges Eigentum 

Es gibt eine anhaltende Debatte über geistiges Eigentum und Urheberrechte hinsichtlich KI-generierter Inhalte. Denn häufig wird geistiges Eigentum oder urheberrechtlich geschützte Inhalte zum Training von KI-Modellen eingesetzt. Für die Trainingsdaten der generativen KI bedienen sich Unternehmen oft an Inhalten aus dem Internet, ohne dass die Eigentümer der Informationen ihre Zustimmung geben. Manchmal wird den Tools zur Code-Generierung vorgeworfen, dass sie Codes erzeugen, die von öffentlichen Code-Repositorien aus dem Internet beeinflusst oder übernommen wurden. Bei der Wiederverwendung solcher Codes sollten die Trainingsteams den Schöpfer nennen. Ironischerweise müssen diese Technologien riesige Mengen an Inhalten aufnehmen, da sie sich sonst nicht verbessern. Eine Beschränkung der Trainingsdaten kann Innovationen im Keim ersticken.

Halluzinationsphänomen bei umfangreichen Sprachmodellen 

Wenn KI höchst ungenaue und irreführende Informationen produziert, die nicht mit den Trainingsdaten übereinstimmen, nennt man das Phänomen Halluzinationen. Sie lassen sich leicht mit Fakten verwechseln und verursachen Probleme. Wie bei jedem anderen Machine-Learning-Modell können sich Ungenauigkeiten in einigen der von der generativen KI produzierten Inhalte einschleichen. Modelle wie ChatGPT werden nicht häufig mit Ereignissen in der realen Welt aktualisiert. All dies kann in Kombination mit der Eloquenz generativer KI-Modelle zu sehr überzeugenden, aber falschen Informationen führen – und Schaden anrichten, vor allem, wenn die Informationen Teil geschäftskritischer Funktionen werden.

Vorurteile in generativen KI-Systemen 

Unternehmen trainieren generative KI auf Basis von Daten, die aus verschiedenen Quellen stammen. Dadurch ist es möglich, dass sich Vorurteile in die generierten Inhalte einschleichen. Die Inhalte können sexistisch, rassistisch oder hochgradig toxisch sein, was dem Ruf eines Unternehmens irreparablen Schaden zufügen kann, wenn sie ohne angemessene Prüfung verwendet werden. In vielen Unternehmen ist die Regulierungs- und Governance-Landschaft für KI noch nicht ausgereift. Es gibt beispielsweise keine angemessenen Sicherheitsvorkehrungen, um derartige Vorurteile abzumildern. Diese könnten bei generativer KI sogar noch gefährlicher sein, da sie in der Lage ist, Inhalte zu erstellen, die den von Menschen entwickelten Inhalten sehr ähnlich sind.

Bedenken hinsichtlich Security und Datenschutz

Unternehmen trainieren generative KI-Systeme auf einer umfangreichen Datenmenge. Die versehentliche Verwendung von PII-Daten oder vertraulichen Daten in den Eingabeaufforderungen können daher Probleme verursachen. KI-Systeme sind außerdem anfällig für Security-Bedrohungen wie Data Poisoning, Inferenzangriffe oder Umgehung der Sicherheitsmaßnahmen. Unternehmen müssen daher nach Lösungen suchen, um diese Bedrohungen zu bekämpfen. Andernfalls kann es zu katastrophalen Folgen wie Datenschutzverletzungen und Verstößen gegen gesetzliche Vorschriften kommen.

Wie können Unternehmen diese Risiken abfedern?

Viele Moderationsmechanismen für Profanität und Schadensvermeidung sind direkt in die Open-Source-LLMs integriert. Unternehmen können diese Modelle über APIs nutzen und in den Aufbau einer zusätzlichen Verstärkungsschicht investieren, die die Eingabeaufforderungen auf verschiedene Verstöße gegen den Datenschutz, die Sicherheit und das geistige Eigentum überwachen kann. Die Lösung kann sensible PII, IP-bezogene Eingaben und andere vertrauliche Daten entsprechend den vorgegebenen Unternehmensrichtlinien herausfiltern. Dieser Layer dient auch als Leitplanke für Ausgabeschnittstellen. Hier lassen sich unbeabsichtigte IP-Verletzungen und PII-Lecks herausfiltern oder sogar komplett verhindern. Der Grund: Die Lösung führt zusätzliche Screenings der Eingabe- und Ausgabeinhalte durch, sie erkennt Toxizität und Verzerrungen durch semantische und kontextuelle Ähnlichkeiten. Unternehmen sollten immer auf verantwortungsvolle KI setzen und entsprechende Tools evaluieren und implementieren, die auf den jeweiligen Anwendungsfall zugeschnitten sind. So lassen sich Verzerrungen vermeiden und Lücken hinsichtlich Sicherheit und geistigem Eigentum schließen. Dies ist aber kein einmaliger Schritt, sondern muss in regelmäßigen Abständen wiederholt werden, denn die KI entwickelt sich kontinuierlich weiter.

 Balakrishna D. R., Infosys

„Viele Unternehmen sind noch nicht in der Lage, das transformative Potenzial generativer KI zu nutzen. Das liegt daran, dass sie sich mit rechtlichen, ethischen, sicherheitsrelevanten, datenschutzrechtlichen und einer Reihe anderer Fragen auseinandersetzen müssen, bevor diese in großem Umfang eingesetzt werden kann.“

 Balakrishna D. R., Infosys

Zwar gibt es zahlreiche Auswirkungen der generativen KI, mit denen sich staatliche Einrichtungen, Unternehmen und die Wissenschaft auseinandersetzen müssen. Andererseits sind ihr disruptives Potenzial und der enorme Wert, den sie in allen Geschäftsbereichen und Branchen bringen kann, unbestritten. Wie schon unzählige Male zuvor bei anderen innovativen Technologien: Agile Unternehmen haben einen Wettbewerbsvorteil, wenn sie diese Technologien zusammen mit den dazugehörigen Security-Maßnahmen implementieren und nutzen.

Über den Autor:
Balakrishna D.R. ist Senior Vice President und leitet die Belieferung für den ECS-Geschäftsbereich von Infosys für die Energie-, Versorgungs-, Telekommunikations-, Medien-, Unterhaltungs- und Dienstleistungsindustrie. Darüber hinaus leitet er die KI- und Automationsabteilung von Infosys und treibt die interne Automation bei dem Unternehmen voran.

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

Erfahren Sie mehr über Künstliche Intelligenz (KI) und Machine Learning (ML)

ComputerWeekly.de
Close