
sabida - stock.adobe.com
LLMs werden bleiben: Jetzt zählt der Schutz sensibler Daten
Die Nutzung von generativer KI im Unternehmen ist mit erheblichen Risiken für die Daten verbunden. IT-Abteilungen müssen den LLM-Einsatz mit entsprechenden Maßnahmen begleiten.
Vor nicht einmal drei Jahren kam ChatGPT auf den Markt und hat binnen weniger Tage über eine Million Nutzer gewonnen. Seither hat sich viel verändert. Das von OpenAI entwickelte Large Language Model (LLM) ist heute aus dem Alltag vieler Menschen nicht mehr wegzudenken. Rund 71 Millionen Menschen weltweit nutzen solche Modelle täglich. Und kaum hatten sich Unternehmen und Sicherheitsteams mit der neuen Technologie vertraut gemacht, erschien auch schon ein neuer Konkurrent auf der Bildfläche.
Seit seinem Start im Jahr 2024 sorgt insbesondere DeepSeek für Diskussionen. Die schnelle und kostengünstige Entwicklung des Modells hat Zweifel an seiner Leistungsfähigkeit und Sicherheit aufgeworfen. Gleichzeitig gibt es angesichts der chinesischen Eigentümerschaft Debatten rund um das Thema Datenschutz und Zensur.
Die rasch zunehmende Nutzung von LLM stellt IT-Abteilungen und Sicherheitsteams vor eine große Herausforderung: Wie können sie mit dem Tempo Schritt halten, das von den schnell wachsenden, leicht zugänglichen – und potenziell gefährlichen – Anwendungen vorgegeben wird? Vermutlich werden sie sich schneller weiterentwickeln als jede andere Technologie zuvor. Aufgrund ihrer zunehmenden Präsenz im Arbeitsalltag sind generelle Verbote für Mitarbeitende nicht nur realitätsfern, sondern auch kontraproduktiv.
Stattdessen gilt es, die Risiken zu verstehen und gezielte Maßnahmen zu ergreifen, um die Nutzung dieser Technologien sicher zu gestalten, ohne die Produktivität zu beeinträchtigen.
Daten im Unternehmen halten
LLMs bergen zahlreiche Risiken für Unternehmen. Angreifer nutzen ChatGPT und ähnliche Tools bereits, um Phishing-Nachrichten zu verfeinern, Texte für neue Zielregionen zu übersetzen und mit deutlich geringerem Aufwand eine größere Gruppe potenzieller Opfer zu erreichen.
Auch DeepSeek war bereits mehrfach Ziel von Cyberangriffen, darunter eine groß angelegte Kampagne im Jahr 2025, bei der über eine Million sensible Datensätze, Betriebsinformationen und Systemdetails kompromittiert wurden.
ChatGPT, DeepSeek und andere LLMs haben allerdings nicht automatisch Zugriff auf Unternehmensdaten. Erst durch aktives Kopieren, Einfügen oder gezielte Eingaben gelangen diese Informationen in fremde Systeme.
DeepSeek selbst erklärt, es könne „Texteingaben, Prompts, hochgeladene Dateien, Feedback, Chatverläufe oder andere Inhalte, die Sie unserem Modell und unseren Diensten zur Verfügung stellen“, erfassen. Und DeepSeek ist damit nicht allein. Angesichts der Vielzahl neuer LLMs auf dem Markt ist mit ähnlichen Praktiken zu rechnen.
Fakt ist: Wer nicht aktiv überwacht, welche Anwendungen die eigene Belegschaft nutzt und welche Daten sie dabei austauscht, hat keine Kontrolle darüber, welche sensiblen Informationen sich außerhalb der eigenen geschützten Umgebung befinden – und damit gefährdet sind.
Produktiv und gleichzeitig sicher bleiben
Der erste Schritt zum Schutz der eigenen Daten ist Kenntnis: Wo befinden sich diese Daten? Wer greift darauf zu? Wohin werden sie übertragen?
Am Anfang stehen die Identifizierung und Klassifizierung sensibler Daten. Automatisierte Tools helfen dabei, personenbezogene Informationen, geistiges Eigentum oder regulierte Daten in allen IT-Umgebungen zu erkennen.
Im nächsten Schritt sollten klare Kontrollmechanismen etabliert werden, um die Bewegungen dieser Daten zu verfolgen – und gegebenenfalls einzuschränken. Dies gilt insbesondere bei der Nutzung von Drittanbieter-Anwendungen wie LLMs. Mögliche Maßnahmen sind beispielsweise:
- Einschränkungen bei Copy-and-Paste-Funktionen für Prompts
- Sperrung des Einfügens sensibler Inhalte
- Sichere Browser-Erweiterungen, die das Hochladen von Dateien oder Bildern verhindern
- Echtzeit-Warnungen bei Verstößen gegen interne Richtlinien zur akzeptablen Nutzung
Zusätzlich bietet sich die Erfassung von Metadaten oder Screenshots bei Interaktionen mit LLMs an. So erhalten die Verantwortlichen einen Einblick, welche Inhalte geteilt werden und wo Risiken entstehen.
![]()
„Neben klaren Richtlinien zur erlaubten Nutzung von LLMs und zum Umgang mit Daten ist entscheidend, dass alle Mitarbeitenden die potenziellen Gefahren verstehen. Denn, wie so oft in der Cybersicherheit, gilt: Daten verlassen das Unternehmen nicht von selbst. Es sind Menschen, die sie weitergeben.“
Miro Mitrovic, Proofpoint
Schatten-KI unter Kontrolle
Sicherheitsmaßnahmen müssen für alle LLMs und GenAI-Anwendungen gelten, nicht nur für die, von denen man weiß, dass sie genutzt werden. Daher ist es wichtig, auch die sogenannte Schatten-IT sichtbar zu machen.
Moderne DLP-Lösungen überwachen die Nutzung von mehreren Hundert GenAI-Websites. So lassen sich Aktivitäten nach Benutzer, Gruppe oder Abteilung aufschlüsseln und Anwendungen identifizieren, die auf sensible Unternehmensdaten, E-Mails, Kalender oder andere Ressourcen zugreifen.
Sobald die IT-Teams wissen, wo sich ihre Daten befinden und wer mit ihnen interagiert, können sie Schulungs- und Sensibilisierungsmaßnahmen gezielt auf jene Nutzergruppen ausrichten, die das größte Risiko darstellen.
Neben klaren Richtlinien zur erlaubten Nutzung von LLMs und zum Umgang mit Daten ist entscheidend, dass alle Mitarbeitenden die potenziellen Gefahren verstehen. Denn, wie so oft in der Cybersicherheit, gilt: Daten verlassen das Unternehmen nicht von selbst. Es sind Menschen, die sie weitergeben.
Nur durch kontinuierliche Sensibilisierung, den Einsatz intelligenter Sicherheitstools und klare Richtlinien können Unternehmen sicherstellen, dass ihre Daten dort bleiben, wo sie hingehören.
Über den Autor:
Miro Mitrovic ist Area Vice President DACH bei Proofpoint.
Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.