sp3n - stock.adobe.com

Das Austricksen der Gesichtserkennung mit KI verhindern

Kriminelle sind relativ findig, automatisierte Gesichtserkennung zu manipulieren, etwa bei Grenzkontrollen. Forscher arbeiten an Verfahren, die dies erfolgreich unterbinden sollen.

Eine automatisierte Gesichtserkennung kommt heutzutage ganz selbstverständlich in den unterschiedlichsten Bereichen zum Einsatz. Sehr lokal beispielsweise zur Entsperrung von mobilen Geräten, aber auch bei Einlasskontrollen am Flughafen.

Personen werden hier über eine automatisierte Gesichtserkennung identifiziert. Blickt die Person in die dort angebrachte Kamera, wird dieses elektronische Bild mit dem im elektronischen Pass hinterlegten Bild verglichen.

Eine Software ermittelt die digitalen Daten des mit der Kamera aufgezeichneten Bildes und vergleicht diese Daten mit denen des Chip-Bildes des Reisepasses. Dabei wird festgestellt, ob die individuellen Merkmale der Gesichter übereinstimmen. Ganz ähnlich funktioniert dies, wenn Gesichtserkennung zur Sicherung und Entsperrung mobiler Geräte wie Smartphones oder Tablets eingesetzt wird.

Angreifbare Gesichtserkennung

Dieses Verfahren kann jedoch anfällig gegen gezielte Angriffe sein. Dies sei in Tests bereits mehrfach nachwiesen worden. „Kriminelle sind in der Lage, die Gesichtserkennungssysteme – wie sie auch bei der Grenzkontrolle eingesetzt werden – so auszutricksen, dass zwei Personen denselben Pass verwenden können“, so Lukasz Wandzik. Der Wissenschaftler am Fraunhofer-Institut für Produktionsanlagen und Konstruktionstechnik IPK in Berlin arbeitet gemeinsam mit seinen Kolleginnen und Kollegen vom Fraunhofer-Institut für Nachrichtentechnik, Heinrich-Hertz-Institut, HHI und weiteren Partnern an einem Verfahren, dass derlei Manipulationen verhindern soll.

Das Verfahren setzt unter anderem auf maschinelles Lernen und soll Bildanomalien erkennen, die während der digitalen Bildverarbeitung in Morphing-Prozessen auftreten. „Der Morphing-Angriff wird ausgeführt, indem zwei Gesichtsbilder zu einem synthetischen Gesichtsbild verschmolzen werden, das die Eigenschaften beider Personen enthält“, erklärt Wandzik. Mit einem so erzeugten Bild im Reisepass würden beide Personen durch ein biometrisches Gesichtserkennungssystem authentifiziert.

In dem Projekt ANANAS (Anomalie-Erkennung zur Verhinderung von Angriffen auf gesichtsbildbasierte Authentifikationssysteme) haben die beteiligten Partner simulierte Bilddaten analysiert und erforscht. Dabei kommen moderne Methoden der Bildverarbeitung und des maschinellen Lernens zum Einsatz.

Hierfür würden tiefe neuronale Netze genutzt, die speziell für die Verarbeitung von Bilddaten konzipiert wurden. Im ersten Schritt werden Daten erzeugt, mit denen die bildverarbeitenden Programme trainiert werden, um Manipulationen zu erkennen. Dabei werden verschiedene Gesichter zu einem gemorpht.

„Um zu entscheiden, ob ein Gesichtsbild authentisch ist oder durch einen Morphing-Algorithmus erstellt wurde, haben wir tiefe neuronale Netze auf gemorphte und reale Gesichtsbilder trainiert. Diese können manipulierte Bilder anhand der dadurch entstehenden Veränderungen erkennen, speziell auch in semantischen Bereichen wie in Gesichtsmerkmalen oder Glanzlichtern in den Augen“, erklärt Prof. Peter Eisert, Abteilungsleiter Vision & Imaging Technologies am Fraunhofer HHI, die Vorgehensweise.

Abbildung 1: So könnte ein Face-Morphing-Angriff aussehen, in der Mitte ist das gemorphte Bild der Originalbilder zu sehen.
Abbildung 1: So könnte ein Face-Morphing-Angriff aussehen, in der Mitte ist das gemorphte Bild der Originalbilder zu sehen.

Die verwendeten neuronale Netze bestehen aus zahlreichen Ebenen, die in vielschichtigen Strukturen miteinander verknüpft seien. Sie würde auf Verbindungen zwischen mathematischen Berechnungseinheiten beruhen und bilden so die Neuronenstruktur des menschlichen Gehirns nach. So könnten die neuronalen Netze recht zuverlässig entscheiden, ob es sich um echte oder gefälschte Bilder handelt. Die Trefferquote habe bei den im Projekt erstellten Testdatenbanken bei über 90 Prozent gelegen.

Wie entscheidet sich KI?

Nun finden KI-Systeme (künstliche Intelligenz) ja nicht immer sinnvolle Entscheidungswege. Die Forscher und Forscherinnen hat daher neben der Trefferquote auch interessiert, wie das System zu der Entscheidung gelangt (siehe auch Wie trifft künstliche Intelligenz eigentlich Entscheidungen?).

Um die Entscheidung nachzuvollziehen, analysierten die Forscher mit speziell dafür entwickelten LRP-Algorithmen (Layer-Wise Relevance Propagation) diejenigen Regionen im Gesichtsbild, die für die Entscheidung relevant sind.

Auf diese Weise sei es möglich, verdächtige Bereiche in einem Gesichtsbild zu finden, sowie Artefakte aufzuspüren und zu klassifizieren, die während eines Morphing-Prozesses erzeugt wurden. In Referenztests konnte bestätigt werden, dass sich gemorphte Bilder über die verwendeten Algorithmen auch als solche identifizieren lassen. Die LPR-Software kennzeichnet die Gesichtsbereiche, die für die Entscheidung relevant sind, entsprechend. So würden häufig die Augen Hinweise geben, ob es sich um eine Fälschung handelt.

Die so gewonnenen Informationen nutzen die Forscher auch, um die neuronalen Netzer robuster auszulegen und um die verschiedensten Angriffsmethoden erkennen zu können. „Die Kriminellen können auf immer ausgefeiltere Angriffsmethoden zurückgreifen, zum Beispiel auf KI-Verfahren, die komplett künstliche Gesichtsbilder erzeugen. Indem wir unsere neuronalen Netze optimieren, versuchen wir, den Fälschern einen Schritt voraus zu sein und zukünftige Attacken zu identifizieren“, so Prof. Peter Eisert.

Das Projekt ANANAS läuft vom Juni 2016 bis Mai 2020 und wird vom Bundesministerium für Bildung und Forschung (BMBF) gefördert. Eine Demonstrator-Software inklusive Anomalieerkennung und Auswertungsverfahren läge bereits vor.

Diese Software umfasse verschiedene Detektormodule der einzelnen Projektpartner. Die Module wenden unterschiedliche Erkennungsverfahren an, woraus am Ende ein Gesamtresultat erzeugt werde. Ziel sei es, die Software in bestehende Gesichtserkennungssysteme an Grenzkontrollen zu integrieren beziehungsweise, die zu erweitern und so entsprechende Angriffe durch Fälschungen ausschließen zu können.

Nächste Schritte

So trifft künstliche Intelligenz Enscheidungen

KI und Ethik: Eine Gratwanderung

Die wichtigsten Begriffe der biometrischen Authentifizierung im Überblick

Erfahren Sie mehr über Bedrohungen

- GOOGLE-ANZEIGEN

ComputerWeekly.de

Close