Visualisierung zum Paper 'UnGANable' der CISPA-Forscher (Bild: cispa.de)

Forscher des Cispa Helmholtz Center for Information Security haben mit "UnGANable" ein neues Anti-Deepfake-Verfahren zur teilweisen Verhinderung von Bildmanipulationen mit böswilliger Absicht getestet. "Vereinfacht gesagt, versucht "UnGANable", Bilder von Gesichtern vor Deepfakes zu schützen", so Cispa-Forscher Zheng Li.

Damit GANs - ein Modell des maschinellen Lernens, bestehend aus zwei künstlichen neuronalen Netzen, die miteinander kommunizieren - Bilder überhaupt verarbeiten können, müssen sie diese zuerst in mathematische Vektoren, den sogenannten "latent code" umwandeln. Dies wird als GAN-Inversion bezeichnet und stellt eine Art Bildkomprimierung dar.

Mithilfe des latent code eines realen Bildes kann ein Generator neue Bilder generieren, die ihrem realen "Vor-Bild" täuschend ähnlich sind. An dieser Stelle greift "UnGANable", das die GAN-Inversion und damit die Fälschungen erschwert. Dafür produziert "UnGANable" auf Ebene der mathematischen Vektoren maximale Abweichungen, in der Fachsprache "noise" genannt, die auf Bildebene jedoch nicht sichtbar sind und die Umwandlung in latent code erschweren.

Auf diese Weise läuft das GAN quasi trocken, da es keine Daten findet, mit deren Hilfe neue Bilder erstellt werden können. Und wenn keine dem Originalbild ähnlichen Kopien auf Basis des latent code erstellt werden können, ist auch keine Bildmanipulation möglich, sagen Li und Team. Tests mit "UnGANable" bei verschiedenen GAN-Inversion-Verfahren hätten funktioniert.

Darüber hinaus hat das Team nachgewiesen, dass sein Verfahren besser schützt als alternative Mechanismen, wie etwa das Programm "Fawkes". Das von einer Forschungsgruppe des Sand Lab in Chicago entwickelte Programm arbeitet mit einem Verzerrungsalgorithmus, der an Fotos mit dem menschlichen Auge nicht wahrnehmbare Veränderungen auf Pixelebene vornimmt.