
meyerandmeyer - stock.adobe.com
Deepfakes: KI-basierte Täuschung und wie man sich schützt
Deepfakes sind längst mehr als virale Gags. Sie bedrohen Unternehmen direkt. Erfahren Sie, wie KI-Fälschungen gezielt genutzt werden und wie Unternehmen sich schützen können.
In den vergangenen Monaten hat der Trend rund um Deepfakes – also Video- oder Audioaufnahmen, die mithilfe von künstlicher Intelligenz (KI) generiert werden – stark zugenommen. Unternehmen, die Opfer von CEO-Fraud durch gefälschte Stimmen oder Nachrichten werden, oder Prominente, die in manipulierten Videos auf Social Media auftauchen: Niemand scheint mehr sicher zu sein.
Dieses Phänomen hat sich im vergangenen Jahr rasant entwickelt – mit Unternehmen als primärem Angriffsziel. Laut einer Deloitte-Umfrage (PDF) berichten fast 15 Prozent der Führungskräfte, dass ihre Finanz- oder Buchhaltungsdaten mindestens einmal durch Deepfakes ins Visier genommen wurden. 11 Prozent geben sogar an, mehrfach betroffen gewesen zu sein. Neben den Sicherheitsrisiken stellen diese Angriffe auch eine erhebliche finanzielle Belastung dar.
Digitale Aufklärung als erste Verteidigungslinie
In einer Bitkom-Umfrage aus dem Jahr 2023 gaben 81 Prozent der Befragten an, dass sie nicht in der Lage sind, Deepfake-Inhalte als solche zu identifizieren. Dieses fehlende Bewusstsein in der Bevölkerung begünstigt die Verbreitung von Betrugsversuchen erheblich.
Gegenmaßnahmen gibt es mehrere. Ein erster Schritt: Innerhalb der Organisationen eine Kultur der offenen Kommunikation fördern. Mitarbeitende sollten ermutigt werden, ungewöhnliche Anforderungen zu hinterfragen – auch wenn sie scheinbar von der Geschäftsführung stammen. Zweitens: Kritisches Denken stärken. Wer dazu angehalten wird, sich Zeit zu nehmen, um verdächtige oder dringende Anfragen zu überprüfen, wird seltener zur Zielscheibe von Manipulation. Ein weiterer wichtiger Baustein ist die Einführung von Mehrfaktor-Authentisierungsprozessen. Für sensible Vorgänge wie Finanztransaktionen oder Zugriffe auf kritische Systeme sollten immer mehrere Authentifizierungskanäle genutzt werden – etwa die Rückversicherung per Anruf oder die Verwendung sicherer Collaboration-Tools zur Freigabe.
Darüber hinaus steigt der regulatorische Druck erheblich. Mit dem EU AI Act wird erstmals ein umfassender gesetzlicher Rahmen geschaffen, der den Einsatz von künstlicher Intelligenz – inklusive manipulativer Technologien wie Deepfakes – in Risikokategorien einteilt und konkrete Anforderungen an Transparenz, Nachvollziehbarkeit und Sicherheit formuliert. Unternehmen, insbesondere solche mit kritischer Infrastruktur oder hoher gesellschaftlicher Relevanz, werden dadurch verpflichtet, technische und organisatorische Maßnahmen zu implementieren, um Risiken proaktiv zu erkennen, zu dokumentieren und zu begrenzen. Deepfakes gelten dabei als KI-generierte oder -veränderte Inhalte und unterliegen expliziten Transparenzpflichten: Der EU AI Act verlangt, dass derartige Inhalte klar und eindeutig als durch künstliche Intelligenz erzeugt gekennzeichnet werden.
Gleichzeitig setzt die Umsetzung der NIS2-Richtlinie neue Standards für das Risikomanagement und die Meldepflichten im Bereich der Cybersicherheit. Unternehmen müssen nun detaillierter nachweisen, wie sie sich gegen gezielte Angriffe – etwa durch KI-gestützte Täuschungen – absichern. Gerade für Branchen mit sensiblen Datenverarbeitungsprozessen oder komplexen Lieferketten bedeutet dies einen erheblichen Handlungsbedarf, auch in Bezug auf Awareness-Schulungen und automatisierte Erkennungsmechanismen.
Die richtigen Werkzeuge nutzen
Neben organisatorischen Maßnahmen ist der Einsatz technischer Lösungen entscheidend. KI-gestützte Tools zur Deepfake-Erkennung, die Audio- und Videoinhalte analysieren, können helfen, Manipulation frühzeitig zu erkennen – und so als wichtiges Sicherheitsnetz fungieren.
Checkliste: Wie sich Unternehmen vor Deepfakes schützen können
- Mitarbeitende gezielt für KI-basierte Täuschungen sensibilisieren
- Verbindliche Authentifizierungssprozesse für sensitive Anfragen implementieren
- Deepfake Detection Tools evaluieren und einführen
- Zero-Trust-Prinzipien durchgängig anwenden
- Regulatorische Entwicklungen aktiv beobachten und vorbereiten
Moderne Deepfake-Erkennung basiert derzeit auf zwei zentralen technologischen Ansätzen: Einerseits kommen passive Analyseverfahren zum Einsatz, die manipulierte Inhalte anhand subtiler Unstimmigkeiten erkennen. Dazu zählen etwa Artefakte bei der Lippensynchronität, inkonsistente Lichtreflexionen oder Störungen im Frequenzspektrum von Audioaufnahmen. Diese Verfahren erfordern leistungsfähige Machine-Learning-Modelle, die auf große Mengen authentischer und manipulierter Daten trainiert wurden. Andererseits werden zunehmend aktive Sicherheitsverfahren etabliert. Hierzu gehören digitale Wasserzeichen und sogenannte Content Credentials, etwa im Rahmen des offenen C2PA-Standards (Coalition for Content Provenance and Authenticity). Diese Verfahren ermöglichen eine technische Herkunftsnachverfolgung und können Inhalte mit vertrauenswürdigen Metadaten versehen, die ihre Entstehung, Bearbeitung und Verbreitung dokumentieren.
Unternehmen sollten prüfen, wie sich beide Methoden – passive wie aktive – in bestehende IT-Sicherheitsarchitekturen integrieren lassen. Dies kann über native Integrationen in Collaboration-Plattformen, über Medienanalyse-Gateways oder über automatisierte Authentifizierungsprozesse im Kommunikationsfluss erfolgen.
![]()
„Die Abwehr von Deepfake-Angriffen sollte integraler Bestandteil eines ganzheitlichen Zero-Trust-Ansatzes sein.“
Mick Baccio, Splunk
Auch die Integrität von KI-Modellen selbst kann Ziel von Angriffen werden. Adversarial Attacks auf Trainingsdaten oder Manipulationen im MLOps-Prozess bergen die Gefahr, dass Deepfake-Technologien selbst kompromittiert oder missbraucht werden – ein Risiko, das bislang oft übersehen wird.
Technik allein reicht aber nicht aus. Aufklärung und Bildung müssen Hand in Hand gehen – durch Programme in Bildungseinrichtungen oder Unternehmen, etwa IREX Learn to Discern oder Mozilla Web Literacy.
Fazit
Um der wachsenden Deepfake-Bedrohung wirksam zu begegnen, müssen Unternehmen ihre Mitarbeitenden im sicheren und verantwortungsvollen Umgang mit KI schulen – und gleichzeitig eine engere Zusammenarbeit zwischen Entwicklungs- und Sicherheitsteams fördern.
Die Abwehr von Deepfake-Angriffen sollte integraler Bestandteil eines ganzheitlichen Zero-Trust-Ansatzes sein. Denn wenn Identitäten manipulierbar werden, muss jede Kommunikationsanfrage – unabhängig von ihrer scheinbaren Herkunft – als potenziell unsicher behandelt und validiert werden.
Die Herausforderung ist groß – aber individuelle und kollektive Wachsamkeit sind ein entscheidender erster Schritt.
Über den Autor:
Mick Baccio begeisterte sich schon früh für die Idee des Cyberspace, was ihn dazu veranlasste, eine Karriere im Bereich Computer Operations mit Schwerpunkt Informationssicherheit einzuschlagen. Als Global Security Advisor bei Splunk nutzt er seine Erfahrung und sein Fachwissen, um Kunden bei der Lösung komplexer Sicherheitsprobleme zu unterstützen.
Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.