Feng Yu - stock.adobe.com

Informationssicherheit trotz Fake News stärken

Falsche Informationen können weitreichende Folgen haben und auf unterschiedlichsten Ebenen wirken. Welche Möglichkeiten gibt es, Desinformationen wirksam entgegenzutreten?

In dem Artikel Falschinformationen beeinträchtigen die IT-Sicherheit wurde beschrieben, welche Arten von Fake News existieren und warum diese die IT-Sicherheit bedrohen. Im diesem Beitrag wird darauf eingegangen, welche Möglichkeiten es gibt, Desinformationen entgegenzutreten.

Medienkompetenzen aufbauen und Awareness schaffen

Zunächst kann jede Person ihre Medienkompetenz aufbauen und/oder schärfen. Insbesondere Kinder und Jugendliche beziehen ihre Informationen laut der JIM-Studie (PDF) zum Großteil aus Suchmaschinen, YouTube-Videos, sozialen Netzwerken und Wikipedia. Der Aufbau von Medienkompetenz ist aus diesem Grund bedeutend. Eine Möglichkeit ist, dass Kinder, Eltern und Pädagogen sich bei Initiativen wie Klicksafe informieren.

Auch die ältere Bevölkerung, die nicht mit digitalen Medien aufgewachsen ist, hat Probleme, Falschnachrichten zu identifizieren. Sie sind in einer Zeit aufgewachsen, in der es nur wenige Printmedien gab, die, bevor sie gedruckt wurden, einen mehrstufigen Review Prozess durchliefen. Diese Informationen wurden weniger hinterfragt und meist geglaubt. Mit der Flut der Informationen über soziale Netzwerke und der Möglichkeit, Content online sofort zu veröffentlichen und weiterzuverbreiten, wird den Informationen schneller geglaubt. Und so ist es nicht nur wichtig, Medienkompetenz bei Kindern aufzubauen, sondern die Awareness für jede Person zu schaffen. Mit folgenden Kriterien können Inhalte auf Authentizität und Glaubwürdigkeit überprüft werden:

  • Ist die Quelle vertrauenswürdig?
  • Findet man die Information auch auf anderen Seiten wieder?
  • Passt das Bild zu den geschilderten Informationen oder wurde es aus dem Kontext gerissen?
  • Aus welcher Zeit stammen die Informationen?

Regulierung durch die sozialen Netzwerke (Moderation)

Die sozialen Medien wirken wie Brandbeschleuniger. Eine Möglichkeit wäre, dass die anbietenden Plattformen vermehrte Regulierungen einführen und so die Möglichkeit von „Superspreadern“ von Falschnachrichten einschränken. Dies kann durch eine Prüfstelle oder eine Moderation erfolgen.

Ein Beispiel für die anfängliche Regulierung und Verantwortung stellt Twitter dar: Donald Trump wurde aufgrund der Gefährdung der nationalen Sicherheit gesperrt. Zuvor vermerkte Twitter, ob gewisse Informationen falsch sind oder nicht oder löschte Falschnachrichten direkt. Twitter war zudem die einzige Plattform, die sich eine Mitschuld an der Stürmung des Kapitols gegeben hat.

Die Stimmen nach einer Regulierung beziehungsweise mehr Sicherheit in den sozialen Medien wird insbesondere nach dem Leak der Facebook-/Meta-Akten lauter. Wie zuvor gesehen, werden Fake News lieber und schneller geteilt, erzielen mehr Reichweite und auch der Algorithmus scheint solche Inhalte zu bevorzugen. Laut Whistleblowerin, um den Profit des Unternehmens zu maximieren. Auch eine Offenlegung der Algorithmen könnte ebenfalls zu mehr Transparenz und zu mehr Aufklärung führen.

Eine dritte unabhängige Prüfstelle

Bisher wurde die Möglichkeit vorgestellt, dass man selbst oder die Plattform Informationen prüfen könnte. Eine dritte Möglichkeit wäre, dass eine unabhängige Instanz prüft, ob es sich um Falschnachrichten handelt und dies anzeigt. Ein Beispiel stellt das Browser Plugin Newsguard dar, der die Nachricht prüft und ein Feedback gibt, ob eine Website vertrauenswürdig ist und/oder der Inhalt der Nachricht echt oder falsch ist oder ob sie noch nicht geprüft wurde. Dabei wird nicht auf allen sozialen Medien jede Nachricht geprüft, sondern die Links zu Nachrichtenquellen und deren Inhalt. Dies geschieht jedoch meist von Menschenhand und Fehler sind hierbei möglich. Ebenso überprüft die Seite Correctiv Informationen und bietet ihre Ergebnisse auf den sozialen Medien wiederum zur Verfügung.

Gesetzliche Regulierung

Wenn nun also eine Person selbst kaum in der Lage ist, Fake News zu erkennen, die Plattformen bislang nicht genug eingreift, bleibt noch die Möglichkeit, gesetzliche Regelungen zu schaffen und vor allem diese umzusetzen. Hierbei gibt es mehrere Möglichkeiten. So könnten Social-Media-Plattformen verpflichtet werden, dass man sich nur noch mit seiner digitalen Identität anmeldet, sich also verifiziert, oder die Erstellung von anonymen Accounts gar nicht mehr möglich wäre. So könnte man sicherstellen, dass eine Person nicht mehrere Fake-Accounts erstellen kann (auch wenn die Person nach außen hin weiter anonym sein könnte). Social Bots könnten damit ebenfalls Einhalt geboten werden. Ebenso könnten auch die Plattformen verpflichtet werden, offensichtliche Falschmeldungen zu löschen.

Einsatz von künstlicher Intelligenz

Die Informationsflut per Menschenhand zu prüfen, ist eine (teure) Möglichkeit, eine günstigere Variante könnte der Einsatz von künstlicher Intelligenz sein. Es gibt bereits mehrere Forschungsprojekte in diesem Bereich. Der Vorteil liegt klar auf der Hand: Effizienz. Weder man selbst noch jemand anderes muss sich durch etliche Meldungen arbeiten, um die Klassifizierung in wahr oder falsch zu unterscheiden.

Der Einsatz von KI kann wie immer Fluch und Segen zugleich sein. So gibt es bereits verschiedene Ansätze, wie vom Fraunhofer Institut, die Fake News mithilfe von KI erkennen sollen. So schreibt das Fraunhofer Institut auf ihrer Website: „Es scannt Social-Media-Nachrichten und filtert Nachrichten heraus, die spezifische Merkmale aufweisen ... Es handelt sich somit um ein Vorselektions- und Alert-System, das Nutzer bei der Auswertung und Beobachtung der Nachrichtenlage unterstützt.“

Vivien Schiller, adesso SE

„Deepfakes könnten nicht nur für Social Engineering ausgenutzt werden, um an sensible Informationen zu kommen, sondern auch um Desinformationen zu verbreiten.“

Vivien Schiller, adesso SE

Ein solches Frühwarnsystem könnte die Menschen in dem oben genannten Punkt Mediale Kompetenz aufbauen/Awareness schaffen unterstützen, die Masse an Informationen zu verarbeiten und zu bewerten.

Schwieriger sieht es bei anderen medialen Inhalten aus. Denn die KI bietet auch die Möglichkeit, eine neue Bedrohungsform von Desinformationen sogenannte Deepfakes zu erstellen.

Die Bezeichnung Deepfake ist aus der Verschmelzung der Begriffe Deep Learning und Fake entstanden und bezeichnet mediale Inhalte (Video, Audio, Fotos), die authentisch wirken, aber mit Hilfe von KI, beziehungsweise Deep Learning, verändert wurden. Ein berühmtes Beispiel dafür ist das Video von Barack Obama, indem er Donald Trump als Idioten bezeichnet (DeepFake, siehe auch Deepfakes: Wenn das eigene Wort kein Gewicht mehr hat).

Bei Deepfakes können alle Klassifizierungen der Desinformation zutreffen. Die Person ist falsch und die Information, die in diesem Video geteilt werden, ebenso. Deepfakes könnten nicht nur für Social Engineering ausgenutzt werden, um an sensible Informationen zu kommen, sondern auch, um Desinformationen zu verbreiten.

Stellt man sich das Szenario eines Wahlkampfes vor: Um die Gegenseite zu schwächen, könnten Deepfakes erstellt werden, die nah an dem sind, was wir glauben könnten, was die Person wirklich sagen würde. Damit wäre eine Wahlmanipulation möglich. Es ist nicht nur das schriftliche, was wir als Fake oder Fakt werten müssen, sondern auch eine Person, die wir sehen und hören. Und Seeing is believing.

Natürlich gibt es andererseits die ersten Ansätze, auch Deepfakes mithilfe von KI zu entlarven. Nur wie schnell verbreiten sich Desinformationen im Vergleich zu der Meldung, dass es sich um eine Desinformation handelt?

Zweifel bleiben trotzdem, insbesondere, wenn die Menschen die Technik dahinter nicht verstehen. Daher ist Explainable AI unabdingbar für ein solches Szenario – und vielleicht auch eine Offenlegung der Algorithmen und generell mehr Transparenz. Dadurch könnte nachvollzogen werden, wie und warum ein Algorithmus eine Entscheidung getroffen hat. Falls dies offengelegt wird und dem Nutzenden angezeigt wird, wäre es möglich, transparent nachzuvollziehen, warum die ein oder andere Information angezeigt wird. Aktuell sind die Algorithmen der sozialen Medien mehr oder weniger undurchschaubar.

Fazit

Unsere Demokratie basiert auf Redefreiheit und dies ist eine privilegierte Diskussion, die in anderen Ländern nicht geführt werden könnte. Ein gewisses Maß an Fake News muss eine Demokratie daher aushalten können.

Wichtig ist, Möglichkeiten zu bieten damit umzugehen und dafür zu sorgen, dass die mediale Kompetenz aufgebaut wird. Die sozialen Medien wirken wie ein Brandbeschleuniger, die Plattformbetreiber sollten sich bewusst sein, dass sie in das politische Geschehen eingreifen können und verantwortungsvoller agieren. Insbesondere sollte in Frage gestellt werden, ob die Funktion, zahlreiche anonyme Accounts erstellen zu können, nötig ist. Und am Ende liegt es auch in der Verantwortung jeder einzelnen Person, wie mit Informationen umgegangen wird. Digitale und analoge Gewalt, die unter anderem durch Falschnachrichten geschürt werden, sollte niemand erfahren müssen.

Über den Autor:
Vivien Schiller ist als IT Security Expert bei der adesso SE in Dortmund tätig. Ihr Schwerpunkt liegt im Bereich der Human Centered Security, in der die Nutzenden und Entwickelnden im Vordergrund der IT-Sicherheit stehen. Sie ist auf die Sicherheit von Webanwendungen spezialisiert, gibt Schulungen im Bereich Kryptographie und beschäftigt sich mit Security-Awareness-Maßnahmen innerhalb der adesso SE. Zudem leitet sie die She for IT Initiative und setzt sich für mehr Diversität in der IT-Branche ein.

Die Autoren sind für den Inhalt und die Richtigkeit ihrer Beiträge selbst verantwortlich. Die dargelegten Meinungen geben die Ansichten der Autoren wieder.

Erfahren Sie mehr über Datensicherheit

ComputerWeekly.de
Close