Deepfakes sind Fotos, Videos oder Audio-Dateien, die mit Hilfe von Künstlicher Intelligenz absichtlich verändert werden. Man sieht oder hört Personen, die Sachen tun oder sagen, die sie tatsächlich gar nie getan oder gesagt haben. Der Begriff setzt sich aus den Wörtern „Deep Learning“ (einer Methode, durch die eine Künstliche Intelligenz lernt) und „Fake“ zusammen.
Die Manipulation von Medieninhalten ist kein neues Phänomen und wird, vor allem in Zusammenhang mit politischer Propaganda, schon lange eingesetzt. Im Unterschied zu früher werden heute jedoch Künstliche Intelligenz und die Rechenleistung von Computern genutzt.
Eines der ersten Videos, das viel Aufmerksamkeit erregt hat, war ein Deepfake des ehemaligen US-Präsidenten Barack Obama. In diesem Video zeigt das Online-Medium BuzzFeed, wie Deepfakes funktionieren und wieso sie gefährlich sein können.
Wie erstellt man Deepfakes?
Mittlerweile ist es einfach, selbst Deepfakes zu erstellen. Durch verschiedenste Apps oder integrierte Filter in Sozialen Netzwerken kann man sein Gesicht in bekannte Filmszenen einsetzen lassen, sich selbst oder andere altern lassen oder das Geschlecht wechseln. Das alles geht mit nur wenigen Klicks. Urheberrechtlich können Deepfakes allerdings problematisch sein – schließlich darf man die Bilder anderer Leute nicht einfach ohne deren Zustimmung verwenden.
Politische Einflussnahme durch Deepfake
Da Bildern in aller Regel mehr Glauben geschenkt wird als reinem Text, werden Deepfakes gerne für Fake News eingesetzt und zielen dabei oftmals auf Politiker:innen ab: So wurde in einem Video das Gesicht der deutschen Bundeskanzlerin Angela Merkel mit dem Gesicht des damaligen US-Präsidenten Donald Trump getauscht. In den meisten Fällen sind solche Deepfakes harmlos. Sie können aber auch missbraucht werden, um gezielt Stimmung gegen politische Entscheidungen, gegen Bevölkerungsgruppen oder einzelne Persönlichkeiten zu machen.
Deepfakes im pornografischen Bereich
Missbraucht werden Deepfakes auch, um pornografische Bilder und Videos von Menschen ohne deren Zustimmung zu erstellen. Betroffen sind vor allem Frauen, deren Gesichter in Pornos eingesetzt oder die nachträglich „ausgezogen“ werden. Die Sensity-Studie „The State of Deepfakes“ aus dem Jahr 2020 zeigt, dass es sich bei 93 Prozent aller Deepfake-Videos, die online zu finden sind, um pornografische Inhalte handelt.