Deepfakes: Wenn das eigene Wort kein Gewicht mehr hat

Erpressung und Wahlbeeinflussung, die Möglichkeiten von Deepfakes sind vielfältig. Und täuschend echte Anrufe von Führungskräften verleiten Mitarbeiter zu gewünschten Aktionen.

Bereits 19,6 Millionen Menschen haben auf Youtube das Video You Won’t Believe What Obama Says In This Video! gesehen. Jedem, der diese Aufnahme aus dem Oval Office im Weißen Haus schaut, ist klar, Obama warnt vor täuschend echten Aufnahmen. Das Perfide daran ist jedoch nicht, was er sagt, sondern, dass zur Hälfte des Clips aufgelöst wird: Hier alarmiert nicht der ehemalige US-Präsident. Ganz im Gegenteil, auch er wurde animiert.

Was passiert, wenn das, was wir täglich sehen, nicht mehr der Realität entspricht? Daraus kann sich eine echte Gefahr entwickeln. Auf der amerikanischen Plattform Reddit tauchten 2017 die ersten modifizierten Clips auf.

Die Gruppe erreichte zügig über 10.000 Abonnenten. Im Februar 2018 wurde sie gesperrt. Seither werden die Clips „Deepfake“ genannt, nach dem Pseudonym des ersten Nutzers, der ein gefälschtes Video hochgeladen hatte.

Dabei handelt es sich um eine fortschrittliche Form der Täuschungstechnologie. KI (künstliche Intelligenz) wird genutzt, um Videomaterial beziehungsweise Audiospuren zu modifizieren, so dass sie etwas darstellen, was tatsächlich nicht passiert ist. Oftmals werden vorhandene Medien, Clips und Ton verwendet, um die KI vorab zu trainieren. Sie erstellt dann ein virtuelles Modell des zu ändernden Elements. Dadurch wird das Medium schlussendlich manipuliert und wirkt täuschend echt.

Beispielsweise werden Stimmmuster erkannt und über die Aussage einer anderen Person gelegt, so dass es klingt, als käme diese von der zu schädigenden Person. Auch ist es möglich, das Gesicht dieses Menschen in ein Video zu schneiden. Dann sieht es aus, als wäre jedes Wort von ihm.

Unternehmen nutzen die Art der Täuschung oft im Bereich der Unterhaltung oder im Marketing. David Beckham beherrscht beispielsweise in der Kampagne Malaria Must Die neun Sprachen, welche er vermutlich im normalen Leben nicht spricht.

Doch auch Firmen können hierdurch Schaden erleiden, wie der jüngste Fall Rund um Facebook-Gründer Mark Zuckerberg aufzeigt. Hier erklärt er, wie ein Mann die Kontrolle über Milliarden gestohlene Daten hat und der Plattformnutzer betrogen wird. Zweifelsohne ist dieses Video amüsant, es zeigt aber auch, welche Gefahr von der Technik ausgeht.

Mächtiges Werkzeug für Cyberkriminelle

Solch eine Technologie kann für Betrüger sehr hilfreich sein. Beispielsweise könnte der Anruf einer Führungskraft simuliert werden, welche die Buchhaltung zu einer Überweisung auffordert. Im Glauben, die Person sei real, sind Nachfragen zur Autorisierung unwahrscheinlich. Das hat zur Folge, dass sich viele Abläufe beispielsweise für die Freigabe von Zahlungsläufen in Zukunft grundlegend ändern müssen, um Menschen vor Fehlern zu schützen.

Erich Krin, KnowBe4

„Deepfake-Technologie wird sich weiterentwickeln und so ist zu erwarten, dass große Schäden aus solchen Angriffen folgen werden.“

Erich Kron, KnowBe4

---

Nicht nur Unternehmen, sondern auch Privatpersonen wurden in der Vergangenheit bereits geschädigt. So sind zahlreiche Schauspieler jüngst in pornografische Szenen geschnitten – beispielsweise Emma Watson. Situationen zu schaffen, in welchen der Ruf einer Person geschädigt wird, ist der Schlüsselfaktor für den erfolgreichen Angriff.

Die kriminellen Möglichkeiten reichen von traditioneller Erpressung bis hin zur Wahlbeeinflussung durch die Veröffentlichung gefälschter Videos der Kandidaten, welche Dinge machen oder sagen würden, die ihren Kampagnen schaden könnten. Bald wird die Manipulation in Echtzeit möglich sein, so dass zum Beispiel ein Videoanruf getätigt werden kann.

Deepfake-Technologie wird sich weiterentwickeln und so ist zu erwarten, dass große Schäden aus solchen Angriffen folgen werden. Hohe Kosten entstehen beispielsweise durch wirtschaftliche Verluste, beziehungsweise die Überprüfung sämtlicher, vor Gericht eingereichtem Videomaterials.

Ein weiteres Beispiel sind auch die nun zahlreichen Revisionen, die von verurteilten Menschen beantragt werden. Sie könnten behaupten, dass sie belastende Material sei manipuliert worden. Neben dem Kostenfaktor wird auch das öffentliche Meinungsbild durch Fakes manipuliert.

Sollte eine Person, wie der Papst, welcher eine große Anhängerschaft besitzt, zu Hetze gegen andere Religionen aufrufen, so könnten Kriege durch das gefälschte Videomaterial ausgelöst werden. Die Folgen wären verheerend. Was passiert schließlich, sollte eine Person in einer Machtposition eine solche Fälschung von sich selbst nutzen, um eine Tat in Auftrag zu geben, welche die breite Masse nicht unterstützen würde? Diese würde dann scheinbar Kriminellen zugesprochen werden. Der eigentliche Auftraggeber bleibt jedoch unbekannt.

Keine Fälschung ist perfekt

Jedes Mal, wenn Videos oder Audiospuren manipuliert werden, gibt es Hinweise auf die Fälschung. Oftmals kann dies mit bloßem Auge nicht erkannt werden. Dann sind Programme notwendig, die Pixelmuster um die geänderten Teile der Bilder herum betrachten sowie Modifizierungen der ursprünglichen Sequenz ausfindig machen und markieren. Die durch die KI produzierte Sprachspur verursacht häufig minimale Fehler, welche durch das menschliche Gehirn nicht verarbeitet und dadurch übersehen werden. Diese zu erkennen ist der Schlüssel, um Audio-Fakes im Vergleich zu echten Sprachmustern aufzudecken.

Über den Autor:
Erich Kron ist Security Awareness Advocate bei KnowBe4.

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

Nächste Schritte

Diese Gefahren gehen von Deepfakes aus

Vishing ist bei Betrügern durchaus beliebt

KI soll das Austricksen der Gesichtserkennung verhindern

Erfahren Sie mehr über Bedrohungen

ComputerWeekly.de
Close