phonlamaiphoto - stock.adobe.com

KI-Sprachmodelle: Risiken und Gegenmaßnahmen

Die Stärken, Schwächen und Risiken von KI-Sprachmodellen sind die Themen eines neuen Positionspapiers des BSI, das Unternehmen und Behörden Hilfestellung bieten soll.

Anlässlich des 19. Deutschen IT-Sicherheitskongresses hat das Bundesamt für Sicherheit in der Informationstechnik (BSI) ein Positionspapier zum KI-Sprachmodelle veröffentlicht. Für Unternehmen bieten sich mannigfaltige Einsatzgebiete für große KI-Sprachmodelle (Large Language Models, LLMs), namentlich Tools wie ChatGPT und Co. Dieser Einsatz birgt aber auch Risiken und darüber hinaus wissen auch weniger redliche Naturen diese Technologie für ihre Zwecke zu nutzen. Grund genug für das BSI sich in einem Positionspapier mit den aktuellen Risiken und Bedrohungen von großen KI-Sprachmodellen zu beschäftigen. Damit möchte man ein Bewusstsein für diese Aspekte bei Behörden und Unternehmen schaffen.

So beschäftigt sich das Dokument auch mit den generellen Fähigkeiten und Anwendungsgebieten der Sprachmodelle. Bei der Betrachtung der Chancen und Risiken geht es um allgemeinen Sicherheitsbedrohungen sowie auch konkrete Beschreibungen sowohl für Entwickelnde als auch Nutzende. So seien die Modelle ganz allgemein in der Lage sprachlich fehlerfreie und inhaltlich überzeugende Texte zu generieren. Dies könne zu einem zu großen Vertrauen in die erzeugten Texte führen. Das Positionspapier widmet sich auch Problemen, wie die Effekte, wenn das LLM Eingaben nicht verarbeiten kann und durch Halluzinieren beliebige Ausgaben generiert. Oder auch besonderen Risiken, wenn es Angreifern gelingt, vom Nutzenden unbemerkt Eingaben einzuschleusen. Und insbesondere bei der Nutzung von externen APIs ist das Thema Vertraulichkeit der Daten beziehungsweise der Datenschutz ein Risiko. So würden die Eingaben in der Regel an den Betreiber abfließen. Wie mit diesen Daten umgegangen wird sei sehr unterschiedlich geregelt und auch auf die Ausgabe habe der Betreiber häufig uneingeschränkten Zugriff.

Das BSI schildert zudem ausführlich Missbrauchsszenarien der Sprachmodelle und nennt eine Reihe von Gegenmaßnahmen, mit denen Unternehmen das Risiko von Angriffen verringern können.

BSI-Vizepräsident Dr. Gerhard Schabhüser: „In Sachen IT-Sicherheit können KI-Sprachmodelle sich als nützliche Werkzeuge erweisen. Sie können beim Erkennen von Spam oder Phishing-Mails hilfreich sein oder beim Aufspüren unerwünschter Inhalte wie Fake News oder Hate Speech auf Social-Media-Plattformen. In gleichem Maße bergen KI-Modelle aber auch Risiken: Bereits jetzt wird im Darknet über den geeigneten Einsatz von KI zu Erstellung von Schadcode und Phishing-Mails diskutiert. Und: KI-gestützte Sprachmodelle eignen sich leider sehr gut zur Erstellung und Verbreitung von Falschinformationen. Dagegen müssen wir jetzt aktiv werden und unsere Gesellschaft für den Umgang mit KI schulen!“

Das BSI rät Unternehmen und Behörden vor dem Einsatz von großen KI-Sprachmodellen und der Integration in ihren Arbeitsabläufen eine Risikoanalyse für die Verwendung in ihren ganz konkreten Anwendungsfällen durchführen.

Das Positionspapier „Große KI-Sprachmodelle – Chancen und Risiken für Industrie und Behörden“ kann beim BSI heruntergeladen werden. Eine entsprechende Veröffentlichung, die sich eher an Verbraucher und Verbraucherinnen richten wird, hat das BSI in Aussicht gestellt. Der Deutsche IT-Sicherheitskongress soll ein Forum bieten für Politik, Wirtschaft und Wissenschaft, um über aktuelle Themen und Entwicklungen der Cybersicherheit zu diskutieren.

Erfahren Sie mehr über IT-Sicherheits-Management

ComputerWeekly.de
Close