VOLLBILD-Journalistin von Stackelberg sichtet zahlreiche Deepfake-Pornos | SWR
Exklusiv

Gefälschte Sexvideos Es kann jede treffen

Stand: 29.11.2022 17:00 Uhr

Millionen Frauen sind Opfer gefälschter Sexvideos und -bilder im Internet. Früher waren vor allem Prominente von Deepfakes betroffen. Eine SWR-Recherche zeigt, warum immer mehr Privatpersonen in den Fokus geraten.

Von Rabea Westarp, SWR

"Wieso ich? Was habe ich dir jetzt getan, dass du meine Bilder nimmst und dir denkst: 'Ja, Mann! Lass sie mal erniedrigen!'", fragt die wütende Frau im Videocall mit der Reporterin. Diese hatte in einem Pornoforum private Bilder von der jungen Frau entdeckt, sie kontaktiert und darauf aufmerksam gemacht. Mutmaßlich hatte ein ehemaliger Mitschüler die Fotos kurz zuvor hochgeladen, sie zeigen sie noch als minderjähriges Mädchen. "Fake her!" (engl.: "Fake sie!") - der Aufruf unter den Bildern ist unmissverständlich: Andere User werden aufgefordert, die privaten Bilder der jungen Frau als Vorlagen für pornografische Deepfakes zu verwenden. Nicht nur von ihr, auch von mehreren ihrer ehemaligen Mitschülerinnen wurden in dem Pornoforum ganze Bildergalerien hochgeladen.

Die Zahl der im Netz kursierenden Deepfakes ist nach Einschätzung von Experten in den vergangenen Jahren förmlich explodiert. Deepfakes sind Fotos oder Videos, die mithilfe von Künstlicher Intelligenz (KI) manipuliert werden. Dabei werden Bilder mit Aufnahmen einer bestimmten Person so verschmolzen, so dass sie authentisch aussehen. Sie bilden laut Studien zu 96 Prozent pornografische Inhalte ab. Fast immer sind die Opfer der Manipulationen weiblich. Forscher erkannten schon 2019 in einer Untersuchung des Unternehmens Deeptrace zur Deepfake-Technologie, dass diese vor allem als Waffe gegen Frauen instrumentalisiert werden können und werden.

Wurden bislang aber vor allem die Gesichter berühmter Schauspielerinnen, Moderatorinnen, Sängerinnen, Politikerinnen und anderer Personen des öffentlichen Lebens in Pornofilme montiert, ergeben jetzt Recherchen des SWR-Investigativformats VOLLBILD, dass zunehmend Privatpersonen leichtes Opfer von Deepfake-Pornografie und somit von Demütigung, Verleumdung und Erpressung werden.

Die Technologie zur Erstellung von Deepfakes ist mittlerweile auch Laien leicht zugänglich, etwa mit Open-Source-Tools aus dem Internet oder Handyapps aus dem Google Play Store oder Apple Store. Laut KI-Experte Henry Ajder, der auch die Untersuchung 2019 leitete, nahm der Missbrauch stark zu. Wie leicht inzwischen Deepfakes von jedermann hergestellt werden können, testete VOLLBILD im Zuge der Recherche: Mit der Premium-Version einer Deepfake-App gelang es innerhalb weniger Minuten ohne jegliche Vorkenntnisse, ein fremdes Gesicht in ein Pornovideo zu montieren.

Mädchen und Frauen immer häufiger betroffen

Zählten die Forschenden 2018 noch gut 14.000 im Netz kursierende Deepfake-Pornovideos, so lasse sich heute gar keine Zahl mehr nennen, sagt Ajder. "Wir sprechen hier wahrscheinlich von Milliarden von Deepfakes, die mittlerweile erstellt wurden", schätzt der Experte. "Wir sprechen im Zusammenhang mit dem Missbrauch von Bildern über Millionen von Frauen, die jetzt ins Visier genommen werden. Wir können zwar keine Statistiken vorlegen, aber doch mit Sicherheit sagen, dass diese Technologie regelrecht explodiert ist - auch in Hinblick auf ihre bösartige Verwendung."

Die Influencerin und YouTuberin "Mrs. Bella" spricht im Interview mit VOLLBILD über ihre Erfahrungen als Opfer von Deepfake-Pornografie. Als sie ein Foto mit einer nackten Frau mit ihrem Gesicht zum ersten Mal sah, sei sie schockiert gewesen: "Die sieht aus wie ich, aber das bin ja nicht ich, weil ich so ein Foto nicht mache", sagt sie. Konfrontiert mit einem neuen Deepfake-Pornovideo, das von ihr kursiert, zeigte sie sich erschrocken, wie täuschend echt die Manipulationen aussehen. Sie will nun juristisch gegen die Verbreitung des Videos vorgehen.

Täter sind oft Männer aus dem Bekanntenkreis

Wer aber erstellt Deepfake-Pornografie von weiblichen Privatpersonen? Die Recherchen zeigen, dass viele Männer mit Deepfakes ihre pornografischen Fantasien befriedigen wollen. Einigen geht es darum, Frauen und Mädchen aus ihrem privaten Umfeld zu demütigen und erniedrigen. Wie Beraterin Anna Lehrmann vom Verein "Frauen helfen Frauen" in Fürstenfeldbruck berichtet, gehen Deepfakes auch mit anderen Formen von Gewalt wie Erpressung oder Bedrohung einher. Oft setzten Männer sie als Waffe bei Beziehungsstreitigkeiten ein. "Ganz viele Frauen sagen auch: 'Ich will gar nichts dagegen tun, weil ich so große Angst habe, dass es dann dadurch noch schlimmer wird'", so Lehrmann. Wer zu ihr in die Beratung komme, wolle das Delikt dann lieber ignorieren, als rechtlich dagegen vorzugehen - aus Angst, den Täter weiter zu provozieren.

Um sowohl Täter als auch Opfer von Deepfakes ausfindig zu machen, recherchierte das VOLLBILD-Team wochenlang in Onlineforen und Communitys. Mit wenigen Klicks finden sich auf den Webseiten öffentlich einsehbare Alben voller Privatbilder hunderter Frauen - teilweise bereits Manipulationen unterzogen, die sie vermeintlich nackt und teilweise sogar beim Sex zeigen. Mitunter werden andere User aufgefordert, die hochgeladenen Bilder zu deepfaken.

Einige der betroffenen Frauen konnte das Investigativ-Format VOLLBILD ausfindig machen. Reporterin Filippa von Stackelberg trat mit mehreren Betroffenen in Kontakt, die meisten hatten zuvor nichts von den Deepfakes gewusst, waren von der Information schockiert und wollten sich nicht äußern. Auch einige der mutmaßlichen Täter schrieb die Reporterin an. Einige löschten daraufhin ihre Accounts und Galerien. Ein User gab zu, mit der Frau, von der er manipulierte Nacktbilder hochlud, früher einmal eine Beziehung geführt zu haben.

Eine Gruppe junger Frauen aus Norddeutschland, die gemeinsam zur Schule gegangen waren und deren private Bilder die Reporterin ebenfalls in einem der Pornoforen fand, waren zum Gespräch bereit. Im Videocall äußerten sie ihre Wut, zeigten sich ebenfalls sichtlich geschockt. Die Gruppe beschloss: Der Fall wird gemeinsam zur Anzeige gebracht.

Deepfakes kein eigener Straftatbestand

Welches Ausmaß der Schaden haben kann, den Betroffene durch derartige Deepfakes erleiden, erklärt Josephine Ballon, Rechtsanwältin und Juristin bei der gemeinnützigen Organisation HateAid, die Betroffene Digitaler Gewalt berät und unterstützt. "Wenn das Bild einmal in der Öffentlichkeit ist, dann wird es geteilt. Selbst, wenn man vielleicht eine Löschung erzielen konnte, teilen es andere vielleicht einfach weiter auf anderen Plattformen, haben es sich sogar gespeichert, um es später nochmal zu posten. Das kann für Betroffene bedeuten, dass sie ein Leben lang nach ihren Bildern suchen und für die Löschung sorgen müssen."

Das Bundesjustizministerium erklärte auf VOLLBILD-Anfrage, man nehme das Thema "sehr ernst" und wolle gegen Deepfakes vorgehen. So werde demnächst ein Eckpunktepapier für ein Gesetz gegen digitale Gewalt vorgelegt. "Ziel ist es, den Rechtsschutz für Betroffene digitaler Gewalt zu verbessern", sagte eine Sprecherin.

Auf Anfrage gaben die Landeskriminalämter bekannt, dass Deepfakes bislang keinen eigenen Straftatbestand darstellten und diese daher nicht eigens erfasst würden. So würden Deepfakes unter mehrere Tatbestände gefasst, etwa Verstöße gegen das Kunsturheberrechtsgesetz oder die Verletzung von Persönlichkeitsrechten, aber auch die Darstellung sexuellen Missbrauchs an Kindern und Jugendlichen oder Beleidigung kämen in Frage.

Über dieses Thema berichtete Deutschlandfunk Nova am 25. November 2022 um 13:00 Uhr in "Kurz und Heute".