Ein defektes Netzwerkkabel vor einem Banner, auf dem das Wort Cyber Attack und ein binärer Code zu sehen sind.
Hintergrund

Täuschung per Video und Audio Deepfakes als Angriffswaffe

Stand: 27.06.2022 09:58 Uhr

Sie imitieren Gesichter und Stimmen täuschend echt - Deepfakes. Laut Senatskanzlei wurde Berlins Regierende Bürgermeisterin Giffey Opfer eines solchen gefälschten Videoanrufs. Sicherheitsbehörden warnen schon länger davor.

Nach etwa einer halben Stunde wurde Franziska Giffey misstrauisch. Das Gespräch mit Kiews Oberbürgermeister Vitali Klitschko am Freitagnachmittag verlief irgendwie seltsam. Berlins Regierende Bürgermeisterin brach das Videotelefonat daher kurzerhand ab. Ihr Gefühl täuschte Giffey nicht. Obwohl der Mann im Video täuschend echt aussah, hatte sie nicht mit dem echten Klitschko gesprochen. Es war offenbar eine Video-Fälschung, ein sogenannter Deepfake.

Der Begriff setzt sich aus den englischen Beschreibungen für Deep Learning und Fake zusammen. Damit werden Videos oder Audioaufnahmen bezeichnet, die mithilfe von Künstlicher Intelligenz manipuliert wurden. Damit können zum Beispiel längst verstorbene Persönlichkeiten, etwa Schauspieler oder Politiker, virtuell zum Leben erweckt werden - die Videofälschungen lassen sich aber auch missbräuchlich verwenden. Um zu täuschen, manipulieren und diskreditieren. Als Mittel der Propaganda und der Desinformation.

Giffey war nicht einziges Opfer

Die Berliner Bürgermeisterin Giffey war nicht das einzige Opfer des falschen Klitschko. In der vergangenen Wochen fanden weitere Videoschalten mit anderen europäischen Bürgermeistern statt. Mit José Luis Martinez-Almeida etwa, dem Bürgermeister von Madrid. Auch er soll die Täuschung erahnt und das Gespräch abgebrochen haben.

Offenbar weitaus weniger misstrauisch war Wiens Bürgermeister Michael Ludwig. Er soll knapp eine Stunde mit der Person gesprochen haben, die er für Vitali Klitschko hielt. Wer hinter den ausgeklügelten Täuschungsaktionen steckt, ist bislang noch unklar. Die Berliner Senatsverwaltung hat umgehend die Polizei informiert, inzwischen ermittelt der Staatsschutz des Landeskriminalamtes (LKA) in der Sache. Völlig überraschend kommt der Fall jedoch nicht.

Deepfakes könnten häufiger kriminell genutzt werden

Deutsche Sicherheitsbehörden warnen bereits seit geraumer Zeit davor, dass Deepfakes zukünftig häufiger von Kriminellen und von ausländischen Geheimdiensten genutzt werden könnten. Beispielsweise um Geld zu erbeuten oder Wirtschaftsspionage zu betreiben. So können etwa die virtuellen Fälschungen dazu verwendet werden, um an Firmengeheimnisse zu gelangen. Die Rede ist bereits von einer neuen Stufe der Spionage, einem "Social Engineering 2.0".

Im Jahr 2019 wurde ein britisches Energieunternehmen das Opfer eines solchen Deepfake-Angriffs. Der Geschäftsführer der Firma erhielt Anrufe vom angeblichen Vorstandsvorsitzenden der deutschen Muttergesellschaft. In den Telefonaten wurde er aufgefordert rund 225.000 Euro auf ein bestimmtes Konto zu überweisen. Später stellte sich bei den Ermittlungen heraus, dass die Stimme des Anrufers mittels Künstliche Intelligenz-Software von den Kriminellen nachgeahmt worden war.

Auch im Kontext des aktuellen Krieges in der Ukraine tauchte bereits ein Deepfake auf. Mitte März wurde auf YouTube und schließlich auch über Twitter ein Video verbreitet, das angeblich den ukrainischen Präsidenten Wolodymyr Selenskyj zeigte, der eine Kapitulation gegenüber Russland verkündete. Die Aufnahme erwies sich allerdings als reichlich stümperhaft und schlecht produziert, die schnell als Fälschung entlarvt werden konnte.

Bessere KI macht es Angreifern leichter

Die Sorge innerhalb deutscher Sicherheitsbehörden ist groß, dass Deepfakes bald schon in wesentlich besserer Qualität verwendet werden könnten. Und zwar auch von Geheimdiensten, die damit gezielt Desinformation und Manipulation betreiben oder vertrauliche Informationen gewinnen wollen.

Es sei "mit großer Wahrscheinlichkeit davon auszugehen, dass gut ausgestattete Nachrichtendienste oder andere staatliche Akteure Deepfakes als neue Angriffswaffen nutzen werden", heißt es in einer aktuellen Broschüre des Bundesamtes für Verfassungsschutz (BfV), in der insbesondere vor Wirtschaftsspionage gewarnt wird. Mit zunehmender Entwicklung der KI werde es Angreifern "immer leichter fallen, Personen in Ton- und Videoaufnahmen nahezu perfekt nachzuahmen".

"Neue Möglichkeiten der Manipulation"

Dabei gehe es längst nicht mehr um manipulierte Videos, die ins Netz gestellt würden, sondern "auch um Live-Manipulation während eines Videocalls", warnen die Verfassungsschützer. Durch solche Deepfakes eröffneten sich für fremde Geheimdienste, Hacker oder Wirtschaftsspione "vollkommen neue Möglichkeiten der Manipulation und Datenabschöpfung".

Im Vergleich zu anderen Formen der Spionage müsse "zum Opfer nicht zuerst Vertrauen aufgebaut werden, da die imitierte Person mutmaßlich bereits einen Vertrauensstatus beim Opfer hat." So wie etwa Vitali Klitschko, der in den vergangenen Monaten wiederholt mit deutschen Politikern und Journalisten gesprochen hat und medial stark präsent ist. Aber wie lassen sich Deepfakes erkennen?

Auf die Mimik achten

Die Bildqualität von Videos sei oft entscheidend, sagen Experten. Videoschalten sollten daher nicht unbedingt über Mobiltelefone, sondern eher größere Bildschirme stattfinden, auf denen Auffälligkeiten möglicherweise leichter erkennbar sind. Der Verfassungsschutz rät außerdem dazu, auf "natürliche Reaktionen wie z.B. Blinzeln oder Stirnrunzeln" zu achten. Solche Mimik könne von KI-Software oft noch nicht gut genug imitiert werden.

"Wer in Live-Videos gegenüber seiner Kontaktperson misstrauisch ist, kann auch darum bitten, dass diese sich kurz an die Nase oder Wange tippt", so ein Ratschlag des Verfassungsschutzes. "Die KI ist bis dato selbst in ihrer besten Form nicht in der Lage, diese Animation darzustellen. Das Bild würde sichtlich verzerrt werden."

Ganz grundsätzlich gelte es aber vor allem die Quelle genau zu prüfen. Also über welche Kanäle ein solches Videogespräch zustande kommt, wie die Kontaktaufnahme aussah. Im aktuellen Fall des "falschen Klitschko" schien man da in Berlin, Madrid und Wien eher unvorsichtig agiert zu haben.

Die Videocalls in der vergangenen Woche sollen jeweils über die E-Mail-Adresse mayor.kyiv@ukr.net angefragt und terminiert worden sein, wie die "Bild-Zeitung" berichtet. Dahinter verbirgt sich allerdings ein ganz gewöhnlicher E-Mail-Anbieter, und keine offizielle Regierungs- oder Verwaltungsstelle: Deren E-Mail-Adressen enden auf @gov.ua. Nachfragen auf anderen Kanälen, etwa vorherige Anrufe in Kiew, gab es wohl keine.

Ob es sich bei dem "falschen Klitschko" tatsächlich um ein echtes Deepfake, also die künstliche Erstellung von Bild und Ton durch eine KI-Software handelte, ist noch unklar. Es gibt Hinweise, wonach es sich möglicherweise um eine einfachere Form der Videofälschung handelte.

Dieses Thema im Programm: Über dieses Thema berichtete Inforadio am 25. Juni 2022 um 10:20 Uhr.