WrightStudio - stock.adobe.com
Microsoft Purview: KI sicher in Microsoft 365 nutzen
Mit Microsoft Purview lassen sich Sensitivity Labels, Data Loss Prevention und Monitoring bündeln – und technische Compliance in Microsoft-365-Umgebungen umsetzen.
Generative KI hält mit hoher Geschwindigkeit Einzug in Unternehmensumgebungen. In Microsoft-Umgebungen ist Microsoft Copilot tief in Microsoft 365 integriert. Der KI-Assistent greift auf E-Mails, Dokumente, Chats und weitere Inhalte im Tenant zu und erzeugt daraus neue Informationen. Diese enge Verzahnung mit produktiven Daten macht KI besonders leistungsfähig – und erhöht zugleich die Anforderungen an Governance, Transparenz und Kontrolle.
Klassische IT-Sicherheit bleibt wichtig. Im KI-Bereich kommen jedoch neue Fragen hinzu: Klassische Zugriffskontrollen bleiben die Grundlage. Im Copilot-Kontext zeigt sich jedoch deutlicher, ob Berechtigungen zu breit vergeben wurden und ob sensible Inhalte ausreichend klassifiziert und geschützt sind. Technische Compliance rückt damit stärker in den Fokus.
Wenn klassische Sicherheitsmodelle nicht mehr ausreichen
IT-Security ist geprägt von klaren, absoluten Regeln. Dokumente dürfen nicht auf externe Datenträger kopiert werden, bestimmte Inhalte dürfen das Unternehmen nicht verlassen, nicht freigegebene Dienste werden blockiert. Solche Vorgaben sind effektiv, solange Datenflüsse eindeutig sind und sich Risiken klar abgrenzen lassen.
Mit dem Einsatz generativer KI verändert sich diese Ausgangslage. Microsoft Copilot verarbeitet große Mengen an Informationen, kombiniert Inhalte aus unterschiedlichen Quellen und erzeugt neuen Content. Eingaben und Ausgaben können sensible Daten enthalten, ohne dass ein klassischer Export oder eine erkennbare Weitergabe stattfindet. Hinzu kommt, dass KI-Systeme in ihrer Funktionsweise nicht vollständig transparent sind. Wie ein Ergebnis zustande kommt, lässt sich im Detail oft nicht nachvollziehen.
Diese Eigenschaften führen dazu, dass pauschale Sicherheitsregeln an Wirksamkeit verlieren. Sie verhindern nicht zwingend, dass sensible Informationen in neue Kontexte gelangen oder unbeabsichtigt weitergegeben werden.
Compliance als Frage von Kontext und Sensibilität
An dieser Stelle setzt technische Compliance an. Sie folgt einem anderen Ansatz als klassische Security. Während Sicherheitsmechanismen mit festen Verboten arbeiten, befasst sich Compliance mit der Einordnung von Informationen nach Sensibilität und Nutzungskontext. Öffentliche Daten können weitgehend frei verwendet werden, bei vertraulichen oder besonders schützenswerten Informationen gelten differenzierte Regeln.
Im KI-Umfeld ist diese Unterscheidung entscheidend. Die zentrale Frage lautet häufig nicht, ob ein Anwender technisch auf Informationen zugreifen darf, sondern unter welchen Bedingungen diese Informationen genutzt, weiterverarbeitet oder geteilt werden dürfen. Damit solche Regeln greifen, müssen sie technisch abgebildet sein.
Datenklassifizierung als Grundlage für kontrollierte KI-Nutzung
In Microsoft-365-Umgebungen erfolgt diese Abbildung über Sensitivity Labels. Sie ermöglichen es, Daten nach ihrer Schutzbedürftigkeit zu klassifizieren und mit konkreten technischen Maßnahmen zu verknüpfen. Dazu zählen unter anderem Verschlüsselung, Zugriffsbeschränkungen oder visuelle Kennzeichnungen.
Ein wesentlicher Aspekt ist die Vererbung dieser Einstufung. Sensitivity Labels begleiten Informationen über ihren gesamten Lebenszyklus hinweg. Werden klassifizierte Daten von Microsoft Copilot verarbeitet, übernimmt auch der erzeugte Output automatisch das entsprechende Schutzniveau. Damit lässt sich verhindern, dass sensible Inhalte unkontrolliert in neue Dokumente, E-Mails oder Präsentationen einfließen.
Ohne diese Klassifizierung entstehen Risiken. Schutzmechanismen wie Data Loss Prevention oder Retention Policies können ihre Wirkung nur entfalten, wenn die Sensitivität eines Dokuments korrekt definiert ist. Fehlerhafte oder fehlende Einstufungen führen dazu, dass KI-Anwendungen Informationen falsch behandeln oder Mitarbeitende Inhalte teilen, die nicht für den jeweiligen Empfängerkreis vorgesehen sind.
Warum Berechtigungen allein keinen ausreichenden Schutz bieten
Microsoft Copilot berücksichtigt bei der Verarbeitung von Daten die bestehenden Benutzerberechtigungen im Tenant. Anwender erhalten nur Zugriff auf Inhalte, für die sie grundsätzlich berechtigt sind. Dieser Mechanismus bildet jedoch lediglich die Zugriffsebene ab.
In der Praxis entstehen Risiken häufig beim Weiterverwenden von Informationen. Ein Mitarbeiter stellt eine Anfrage an Microsoft Copilot, die KI durchsucht SharePoint, Teams oder OneDrive und generiert eine Antwort. Anschließend stellt sich die Frage, mit wem dieser Inhalt geteilt werden darf. Ohne Klassifizierung bleibt diese Entscheidung dem Anwender überlassen.
Mit Sensitivity Labels wird diese Unsicherheit reduziert. Die Einstufung macht sichtbar, welche Nutzung erlaubt ist, und überträgt die zugrunde liegenden Regeln automatisch auf den KI-generierten Inhalt. Ergänzende Kontrollen können bestimmte Aktionen blockieren oder einschränken, wenn sie gegen definierte Vorgaben verstoßen.
Data Loss Prevention als technische Leitplanke
Data Loss Prevention spielt in diesem Zusammenspiel eine zentrale Rolle. DLP-Richtlinien setzen die inhaltliche Einordnung technisch durch. Abhängig von Sensitivität und Nutzungskontext können sie verhindern, dass vertrauliche Inhalte extern weitergegeben werden oder an private E-Mail-Adressen gelangen.
Ein typisches Szenario zeigt die Relevanz dieser Mechanismen: Mitarbeitende testen nach der Einführung von Microsoft Copilot häufig aus, welche Informationen die KI liefert. Fragen nach Gehaltsdaten oder personenbezogenen Informationen gehören zu den häufigsten Prompts. Liegen entsprechende Daten ungeschützt in einem zugänglichen Bereich, kann Microsoft Copilot die Informationen liefern. Sind sie korrekt klassifiziert und durch DLP-Richtlinien abgesichert, wird die Ausgabe unterbunden.
Nicht alle Informationen sollen oder dürfen von KI verarbeitet werden. Besonders sensible Inhalte oder vertraglich geschützte Daten müssen unter Umständen vollständig von der KI-Nutzung ausgenommen werden. Da sich Dokumente nur sehr schwer oder sehr unsauber aus dem Tenant-weiten Such- und Indexierungsprozess entfernen lassen, ist eine andere technische Maßnahme erforderlich.
Double Key Encryption bietet hier einen wirksamen Ansatz. Die Daten werden doppelt verschlüsselt, wobei ein Schlüssel außerhalb der Kontrolle des Cloud-Anbieters liegt. KI-Anwendungen können auf diese Inhalte nicht zugreifen. Auch diese Maßnahme setzt eine saubere Klassifizierung voraus, um gezielt angewendet zu werden.
Transparenz über Datenflüsse und KI-Nutzung
Mit wachsendem Datenvolumen und zunehmender KI-Nutzung steigt der Bedarf an Transparenz. Unternehmen müssen wissen, wo ihre Daten liegen, wie sie genutzt werden und welche Aktionen Anwender durchführen. Diese Sicht ist auch vor dem Hintergrund regulatorischer Anforderungen wie DSGVO, NIS2 oder DORA relevant, die Transparenz, Überwachung und technische Kontrollen verlangen.
Microsoft Purview bündelt technische Compliance-Funktionen innerhalb von Microsoft 365 und ermöglicht eine zentrale Auswertung von Aktivitäten. Über Analysewerkzeuge lassen sich Datenbewegungen und Nutzeraktionen detailliert nachvollziehen, einschließlich der Interaktionen mit Microsoft Copilot. Diese Einblicke unterstützen sowohl präventive Maßnahmen als auch Untersuchungen im Verdachtsfall.
![]()
„Generative KI lässt sich nicht isoliert absichern. Sie arbeitet mit den Daten, die ihr zur Verfügung stehen, und übernimmt deren Kontext. Eine saubere Datenklassifizierung bildet daher die Grundlage für jede Compliance-Strategie in Microsoft 365.“
Julian Kusenberg, SoftwareOne
Gleichzeitig wird sichtbar, welche KI-Anwendungen tatsächlich genutzt werden. Viele Unternehmen stehen vor dem Problem sogenannter Schatten-KI, also nicht freigegebener Tools, die außerhalb der Kontrolle der IT eingesetzt werden. Transparenz über Nutzungsmuster hilft, Risiken zu erkennen und gezielt gegenzusteuern.
Neue Anforderungen an Organisation und Rollen
Mit der Einführung einer zentralen Compliance-Plattform entstehen nicht nur technische, sondern auch organisatorische Anforderungen. Unternehmen benötigen eine Rolle, die technische Compliance verantwortet und zwischen IT, Rechts- und Fachabteilungen vermittelt. Der technische Compliance-Manager muss regulatorische Anforderungen verstehen, in technische Richtlinien übersetzen und deren Wirksamkeit bewerten.
Der Funktionsumfang moderner Compliance-Plattformen ist groß, und viele Einstellungen müssen in produktiven Umgebungen getestet werden. Ohne strukturiertes Vorgehen steigt der Aufwand erheblich. Deshalb setzen viele Organisationen bei der Einführung auf externe Unterstützung, um relevante Use Cases zu priorisieren und Risiken zu minimieren.
Fazit: Technische Compliance als Voraussetzung für produktive KI
Generative KI lässt sich nicht isoliert absichern. Sie arbeitet mit den Daten, die ihr zur Verfügung stehen, und übernimmt deren Kontext. Eine saubere Datenklassifizierung bildet daher die Grundlage für jede Compliance-Strategie in Microsoft 365. Sie sorgt dafür, dass Schutzmechanismen greifen, KI-Ausgaben korrekt eingeordnet werden und unzulässige Aktionen verhindert werden können.
Microsoft Purview stellt die technischen Werkzeuge bereit, um diese Anforderungen umzusetzen und technische Compliance zentral zu steuern. Entscheidend ist ein strukturiertes Vorgehen mit klar definierten Regeln, überschaubaren Klassifizierungen und kontinuierlicher Anpassung an neue Anforderungen. Nur so lässt sich KI verantwortungsvoll und nachhaltig in den Unternehmensalltag integrieren.
Über den Autor:
Julian Kusenberg ist Senior Consultant bei SoftwareOne und spezialisiert auf Microsoft 365 Compliance mit Fokus auf Microsoft Purview. Er unterstützt Unternehmen bei der Umsetzung ganzheitlicher Sicherheits- und Governance-Strategien – von Sensitivity Labels bis zu Insider Risk Management und eDiscovery.
Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.