Eine Frau telefoniert
exklusiv

Betrug mit Künstlicher Intelligenz Das Geschäft mit der geklonten Stimme

Stand: 18.07.2023 10:58 Uhr

Mit Künstlicher Intelligenz können Stimmen mit geringem Aufwand täuschend echt geklont werden. Kriminelle nutzen das, um mit Audio-Deepfakes Straftaten zu begehen, wie SWR-Recherchen zeigen. Die Sicherheitsbehörden können kaum Schritt halten.

Von Tasnim Rödder, SWR

Es war ein gewöhnlicher Freitag, als Corinna Busch aus Neuss einen Anruf mit unterdrückter Nummer erhielt. Am anderen Ende eine aufgewühlte Stimme: "Mama, ich bin's. Ich habe einen Unfall gebaut und eine Frau tot gefahren. Ich gebe dich mal weiter an den Polizisten." So erzählt es Corinna Busch.

Die Stimme habe zweifellos so geklungen wie die ihres Sohnes. Der vorgebliche Polizist habe ihr am Telefon erklärt, dass ihr Sohn in Haft sei und er ihn gegen eine Kaution freilassen würde. Danach habe er aufgelegt. Schockiert habe ihr Mann Wolf Busch ihren Sohn angerufen. Am Ende stellte sich heraus: Das Ganze war ein Fake. Ihr Sohn war nicht bei der Polizei, sondern zu Hause.

Weil die Stimme so täuschend echt geklungen habe, sind die Buschs überzeugt, dass jemand mithilfe von Künstlicher Intelligenz (KI) die Stimme ihres Sohnes geklont habe. Ob die Kriminellen tatsächlich KI genutzt haben, konnten die Ermittler allerdings genauso wenig feststellen wie die Täter oder Täterinnen zu finden.

Es gibt mittlerweile mehrere Online-Dienste, die das "Stimmenklonen" mittels KI einfach ermöglichen. Recherchen des SWR-Investigativformats Vollbild zeigen nun, dass auch Kriminelle diese Technik missbrauchen - etwa zum Identitätsdiebstahl oder bei betrügerischen Schockanrufen. Das Bundesinnenministerium teilte auf Anfrage mit, dass die Sicherheitsbehörden aufgrund der technologischen Entwicklung "täglich vor vielfältigen und komplexen Herausforderungen" stünden.

Betrugsfälle mit KI nicht erfasst

Eine Anfrage bei den 16 Landeskriminalämtern (LKA) zeigt, dass Familie Busch kein Einzelfall ist. Allein in Nordrhein-Westfalen wurden laut Polizeilicher Kriminalstatistik 2022 mehr als 8000 Straftaten in Verbindung mit Schockanrufen und Enkeltricks begangen. Die meisten dieser Fälle konnten nicht aufgeklärt werden. "Ich mache keinen Hehl daraus, dass es schwierig ist, diese Ermittlungen zu führen", sagt Daniela Dässel, Sprecherin des LKA Nordrhein-Westfalen, im Interview mit Vollbild.

Bundesweit werde die Anzahl der Schockanrufe nicht erhoben, teilte das Bundeskriminalamt auf Anfrage mit. Kein LKA erfasst gesondert, wie viele dieser Straftaten mithilfe von KI begangen wurden. Die Fortschritte der KI-Technologie bereiten den Ermittlerinnen und Ermittlern Sorgen: Das LKA Hessen weist darauf hin, dass Audio-Fakes noch vor ein bis zwei Jahren eine Herausforderung gewesen seien. Inzwischen gebe es jedoch teilweise kostenfreie Webseiten. Es sei möglich, bereits mit kurzen, qualitativ hochwertigen Aufnahmen "gute Ergebnisse" zu erzielen.

Mittels einer aktuellen Umfrage erhob das Tech-Unternehmen McAfee Zahlen zur Dimension des Problems. Das Unternehmen befragte online rund 7000 Menschen aus sieben Ländern zum Thema Audiofälschung mithilfe von KI. Etwas mehr als 1000 der Befragten waren aus Deutschland. 22 Prozent gaben an, dass sie oder Bekannte schon einmal einen Audio-Betrug mit KI erlebt hätten. Weltweit sind es 25 Prozent.

So einfach kann man Stimmen klonen

Laut Umfrage können KI-Softwares Stimmen mit einer Genauigkeit von 95 Prozent klonen. Eine dieser Softwares kommt vom US-Start-Up ElevenLabs. Erst Ende April veröffentlichte das Unternehmen eine Version mit deutschen Stimmen. Das hatte es zuvor nicht gegeben. "ElevenLabs" gibt an, dass die Nutzerzahl innerhalb von fünf Monaten von Null auf mehr als eine Million gestiegen ist.

Auch Vollbild hat das Stimmenklonen getestet. Mithilfe von "ElevenLabs" und einem Open-Source-Programm konnte die Redaktion die Stimme der Podcasterin Ariana Baborie täuschend echt klonen. Sie reagierte schockiert, als sie mit dem Ergebnis konfrontiert wurde: "Mir fiel es sehr schwer zu merken, dass es nicht wirklich ich bin", sagte sie, als sie ihren eigenen Klon hörte.

Für viele Menschen können Programme wie ElevenLabs bei missbräuchlichem Einsatz gefährlich werden. Die SPD-Politikerin Sawsan Chebli ist besonders betroffen von Hass und Anfeindungen im Netz. Sie geht im Interview mit Vollbild davon aus, dass Sprachprogramme diesem Problem eine ganz neue Dimension geben können.

Sie sieht darin eine mögliche Waffe in der Hand derjenigen, die sie zu diffamieren und in die Nähe von Islamisten zu rücken versuchen: "Ich glaube tatsächlich, das wäre brutal gefährlich, weil das so viele glauben würden, die ja eh so ein bestimmtes Feindbild haben. Und wenn man das Zerrbild nährt durch meine Stimme - ich glaube, das wäre brutal."

Trollanrufe bei der Polizei

Ein Fall aus den USA zeigt, dass künstlich generierte Stimmen Menschen sogar in Todesangst versetzen können. Internet-Trolle haben die Stimmen von Schriftsteller Patrick Tomlinson und seiner Partnerin Niki Robinson aus Milwaukee im US-Bundesstaat Wisconsin geklont. Mit den gefälschten Stimmen rufen Trolle offenbar häufig bei der Polizei an und kündigen Verbrechen an der Adresse des Paares an. Daraufhin stürmen immer wieder schwer bewaffnete Polizisten und Polizistinnen ihr Haus, das zeigen Überwachungsvideos, die Vollbild vorliegen.

Das nennt sich "Swatting" und leitet sich von dem Wort "Swat" ab, also die Bezeichnung für eine US-amerikanische Spezialeinheit der Polizei. "In den vergangenen Jahren gab es 42 Swatting-Anrufe. Die meisten davon in den letzten zehn Monaten", sagt Tomlinson im Interview mit Vollbild. Dem Paar zufolge begannen die Swatting-Anrufe, nachdem Patrick Tomlinson einen kritischen Tweet über einen Komiker abgesetzt hatte. Auf die Frage, was die Täter und Täterinnen mit den Swatting-Anrufen erreichen wollen, antwortet er: "Sie wollen uns tot sehen."

Fake nicht erkannt

Wie erkennt man einen Stimmenklon? Das Tech-Startup ElevenLabs wirbt mit einem "Authentifikationstool", das erkennen soll, ob eine Audiospur mit ihrer Software erstellt wurde. Vollbild hat eine Audiodatei mit ElevenLabs erstellt, sie mit einem Open-Source-Programm leicht nachbearbeitet und durch das Authentifikationstool überprüfen lassen. Es hat den Fake nicht erkannt.

ElevenLabs äußerte sich bis Redaktionsschluss nicht dazu. Auf seiner Internetseite untersagt das Unternehmen die missbräuchliche Verwendung seiner Software. Dort heißt es: Eleven Labs unternehme alles, um das Risiko schädlichen Missbrauchs mit Schutzmaßnahmen zu minimieren und um dagegen vorzugehen.

EU will Transparenz bei Deepfakes

Die Politik ist auf die Gefahren durch KI aufmerksam geworden und arbeitet auf europäischer Ebene am sogenannten "Artificial Intelligence Act". Dieser soll einer Sprecherin der EU-Kommission zufolge bis Mai 2024 in Kraft treten. Der Entwurf sieht vor, KI-Anwendungen nach Risiko zu kategorisieren und sie je nach Risikograd zu regulieren.

Doch es gibt Kritik. "Der EU-Entwurf sieht Transparenzpflicht für einige Deepfakes vor, aber er macht Ausnahmen", kritisiert Maria Pawelec. Sie forscht an der Universität Tübingen zu künstlicher Intelligenz und Desinformation. Ihrer Meinung nach sollten Deepfakes ausnahmslos gekennzeichnet sein.

Nach Einschätzungen des Audioforensikers Patrick Aichroth vom Fraunhofer Institut bevorzugt die aktuelle Technologie die Angreifer und Angreiferinnen: "Das Ganze ist im Grunde immer ein Katz- und Mausspiel. Sobald Verfahren für die Erkennung von Fälschungen entwickelt werden, finden sich neue Fälschungen, die diese Erkennung umgehen."

Auch Judith Simon vom Deutschen Ethikrat blickt pessimistisch in die Zukunft. Sie berät die Bundesregierung federführend im Umgang mit Künstlicher Intelligenz. Im Interview mit Vollbild sagt sie: "Ich glaube, wir werden eine schnellere Lernkurve hinkriegen müssen, um mit solchen Technologien umzugehen."

Familie Busch fühlt sich nach dem Schockanruf mit der täuschend echten Stimme des Sohnes hilflos, obwohl sie sich an die Polizei gewandt hatte. Das Einzige, was die Polizei ihnen geraten habe: Sie sollten möglichst vielen Leuten davon erzählen, damit nicht noch mehr Leute auf solche Schockanrufe hereinfallen.

Thomas Becker, SWR, tagesschau, 18.07.2023 11:47 Uhr

Dieses Thema im Programm: Über dieses Thema berichtete SWR2 am 06. Juni 2023 um 16:05 Uhr in Wissen aktuell - SWR2 Impuls.