Nachbericht Lessons Learned: Deepfakes

Lessons Learned: Deepfakes

Die bidt Werkstatt digital am 20. Oktober 2020 über Deepfakes ermöglichte einen Blick hinter die Kulissen von Medienmanipulationen. Die wesentlichen Ergebnisse in Kürze.

Mithilfe Künstlicher Intelligenz ist es möglich, Gesichter in Videos zu fälschen und Personen Dinge tun oder sagen zu lassen, die sie so nie getan oder gesagt haben. Bei der bidt Werkstatt digital zu Deepfakes gaben Professor Felix Freiling (bidt-Direktor und Professor an der FAU Erlangen-Nürnberg), Dr. Justus Thies (TU München), Dr. Christian Riess (FAU Erlangen-Nürnberg) und der Journalist Wolfgang Wichmann (crossmedialer Planungsredakteur der tagesschau und Trainer für Verifikation und Recherche) einen Einblick, welche Medienmanipulationen heute technisch machbar sind, wie sich diese aufdecken lassen und welche gesellschaftlichen Herausforderungen damit verbunden sind.

Die Ergebnisse der Diskussion

Wie verbreitet sind Deepfakes?

  • Die Möglichkeiten der Medienmanipulation sind heute weitverbreitet. Auch viele Anwendungen auf Smartphones erlauben es, Fotos zu verändern – etwa sogenannte Beauty-Filter oder Animojis, bei denen die eigene Mimik auf einen Avatar übertragen wird. Dahinter steckt häufig Künstliche Intelligenz.
  • Medienmanipulationen gab es bereits vor dem digitalen Zeitalter, aber da Bild- und Videobearbeitung zunehmend automatisiert werden, sinken die Hürden für Effekte, die früher aufwendig umzusetzen waren.
  • Große Tech-Unternehmen arbeiten an Deepfakes wie der virtuellen Darstellung von Personen (zum Beispiel als virtuelle Berater), unter anderem um Produkte noch gezielter auf einzelne Kunden zuzuschneiden.
  • Deepfakes können auch zum Schutz von Privatheit genutzt werden, zum Beispiel indem Gesichter gezielt verändert werden, damit jemand nicht mehr erkennbar ist.

Sind Deepfakes eine Gefahr für die Gesellschaft?

  • Möglicher Missbrauch im privaten Bereich stellt eine Gefahr für Einzelne dar (zum Beispiel Cybermobbing, Verbreitung von „Rachevideos“).
  •  Deepfakes bergen ein gefährliches Potenzial, bei gezielter Manipulation sind sie aber nur eines der möglichen Werkzeuge.
  • Noch sind Deepfakes relativ unflexibel, da bestimmte Voraussetzungen erfüllt sein müssen, um zum Beispiel eine überzeugende Videofälschung zu erstellen. Dazu zählt etwa die frontale Aufnahme des Gesichts. Vielen Nutzern fehlt es noch an Bewusstsein für Deepfakes; vielfach nehmen sie das, was sie sehen, als gegeben.

Wie lassen sich Deepfakes erkennen?

  • Es gibt technische Methoden, auch mithilfe von Algorithmen, um Deepfakes zu erkennen.
  • An diesen wird weiter geforscht und sie werden auch von Polizei und Justiz eingesetzt.
  • Künstliche Gesichter werden im Allgemeinen mit sogenannten GANs (Generative Adversarial Networks) erzeugt, einer speziellen Konstruktion tiefer neuronaler Netzwerke. Jedes GAN hinterlässt dabei (unsichtbare) charakteristische Muster, anhand derer die Methode erkannt werden kann.
  • Medienmanipulationen sind heute zwar leichter herzustellen, aber die Möglichkeiten, sie zu widerlegen sind ebenfalls größer als früher, da Ereignisse von vielen Menschen parallel aufgenommen und dokumentiert werden.

Was kann der Einzelne tun?

  • Um sich zu informieren, sollte man sich nicht auf die sozialen Medien verlassen, sondern gezielt Plattformen ansteuern, denen man vertraut.
  • Jeder sollte sich dafür verantwortlich fühlen, wachsam zu sein, und gegebenenfalls recherchieren, etwa nach einem Originalvideo im Internet suchen.
  • Es gibt Programme, die Fälschungen aufspüren, zum Beispiel erlaubt das InVID Verification Plugin Journalistinnen und Journalisten, effizient Falschinformationen zu entlarven und digitalen Content auf Richtigkeit zu prüfen. Es gibt Initiativen, um Medienkompetenzen zu verbessern. Dazu zählt zum Beispiel das Nachrichtenkompetenz-Projekt Lie Detectors, das sich an Kinder richtet.
  • Zudem gibt es Schulungen, unter anderem für Journalistinnen und Journalisten (z. B. die ARD.ZDF medienakademie).

Auf einer digitalen Pinnwand tauschten sich die Teilnehmenden über Deepfakes aus und stellten Fragen an die Expertenrunde.

Es ist absehbar, dass maschinelle Lernverfahren zur automatischen Bearbeitung von Bildern und Videos in den nächsten Jahren weitere, substanzielle Fortschritte machen werden.

Dr. Christian Riess, FAU Erlangen-Nürnberg

Deepfakes sind zurzeit bereits eine Gefahr für einzelne Personen. Cybermobbing, also digitales Mobbing durch manipulierte Bilder und sogenannte Fake Porns, bei denen Gesichter in Pornovideos eingefügt werden, werden bereits zur Diskreditierung von Personen erstellt.

Dr. Justus Thies, TU München

Angesichts von Deepfakes hinkt die Öffentlichkeit in ihrem Verständnis von Echtheit noch dem hinterher, was man heute an Echtheit erwarten sollte.

Prof. Felix Freiling, bidt-Direktor und Professor an der FAU Erlangen-Nürnberg

Die Aufgabe von Journalisten, Menschen über Ereignisse und ihre Hintergründe zu informieren und aufzuklären, ist durch die Entwicklung der Technologien im Zusammenhang mit dem Internet leichter und schwieriger geworden. Über das Netz sind heute Bewegtbilder, Fotos und Informationen verfügbar und ermöglichen eine neue Qualität der Berichterstattung. Doch die Herausforderungen sind zugleich gewachsen: Medienschaffende müssen verstärkt Quellen und Inhalte prüfen, um das in sie gesetzte Vertrauen zu rechtfertigen und zu erhalten.

Wolfgang Wichmann, NDR