Gefahr durch Künstliche Intelligenz - "Deepfakes sind wie Messer - man kann sie missbrauchen oder gebrauchen"

Mo 02.10.23 | 08:37 Uhr | Von Anna Bordel
  24
Archivbild: Ein von der Senatskanzlei in Berlin zur Verfügung gestelltes Foto zeigt das Fake Videotelefonat zwischen einem vorgeblichen Vitali Klitschko mit Berlins Regierender Bürgermeisterin Franziska Giffey (SPD). (Quelle: dpa/Senatskanzlei Berlin)
Bild: dpa/Senatskanzlei Berlin

Text-, Audio- oder Video-Deepfakes - mit Künstlicher Intelligenz lassen sich mediale Inhalte im Netz manipulieren. Deshalb sind sie anfällig für Missbrauch, sagen Experten. Schützen kann man sich am besten mit dem Wissen darüber. Von Anna Bordel

  • in Berlin und Brandenburg ist ein Giffey-Klitschko-Telefonat bislang die einzig erfasste Straftat, die durch Deepfake begangen wurde
  • Texte, Audios und Videos können mittlerweile mit zahlreichen Anwendungen manipuliert werden und sind so anfällig für Missbrauch
  • Schutz davor bieten zum Beispiel KI-Anwendungen, die Fakes erkennen, aber auch das Bewusstsein, dass im Netz Fakes kursieren

An sich nichts Ungewöhnliches - der Bürgermeister von Kiew, Vitali Klitschko, hatte um ein Video-Call mit der damaligen Regierenden Bürgermeisterin Franziska Giffey (SPD) gebeten. Das ganze wurde organisiert und Ende Juni 2022 quatschten sie dann miteinander, gesehen haben sie sich via Bildschirm. Zuvor persönlich getroffen, hatten sie sich laut Giffey nie. Trotzdem merkte sie nach ein paar Minuten, dass etwas nicht stimmte. Die Fragen hätten sie stutzig gemacht, sagte Giffey später. Sie brach das Telefonat ab.

Hinterher wurde klar, dass es niemals Vitali Kltischko gewesen ist, der um das Telefonat gebeten oder mit ihr telefoniert hatte. Dass sie ihn trotzdem in Bewegung sehen und dazu mit seiner Stimme sprechen hörte, ist vermutlich einer Technologie geschuldet, die mittlerweile als Deepfake bekannt ist: Video-, Audio oder Textmaterial, das mittels Künstlicher Intelligenz (KI) manipuliert wurde.

Die Ermittlungen zu dem bislang in Berlin beispiellosen Fall laufen noch. Ein Stand könne wegen Gefährdung der Ermittlungen nicht öffentlich gemacht werden, teilte die Staatsanwaltschaft auf rbb|24-Nachfrage mit.

Wie viele Straftaten bislang durch Deepfakes begangen wurden, ist für die Berliner Polizei nicht leicht zu ermitteln. Die Polizei erfasst KI-Straftaten nicht gesondert, daher müssen die Bereiche einzeln danach durchkämmt werden. Kriminelle Handlungen in den Bereichen Pornografie, Betrugsmaschen und gefälschte Medieninformationen in Verbindung mit Künstlicher Intelligenz seien der Berliner Polizei nicht bekannt, erklärte Pressesprecher Martin Stralau. Auch in Brandenburg seien bis Ende Juni keine Betrugsfälle mit Verdacht auf KI-Einsatz zur Anzeige gebracht worden, teilte das Polizeipräsidium Brandenburg rbb|24 auf Nachfrage mit.

Und doch kann jeder, der möchte, ein Deepfake erstellen. Im Netz finden sich zahlreiche, auch kostenpflichtige, Anwendungen, die für jeden zugänglich sind. Ein paar Klicks und häufig nur wenige Euro weiter lassen sich mit Fotos einer Person, Videomaterial oder wenigen Sekunden Audiospuren Fälschungen herstellen. "Früher brauchte man einen großen Computer mit sehr viel Rechenpower, heute reicht ein Smartphone“, meint Thomas-Gabriel Rüdiger, Leiter des Instituts für Cyberkriminologie an der Hochschule des Landes Brandenburg. "Die Hersteller dieser Tools verdienen damit Geld, aber öffnen möglicherweise Tor und Tür für Betrug", so Nicolas Müller vom Fraunhofer-Institut für Angewandte und Integrierte Sicherheit.

Was sind Deepfakes?

Text-Deepfakes fragen Informationen ab oder übermitteln Fakten in einem Layout, das von einem Unternehmen bekannt ist. In einem Audio-Deepfakes simulieren die Stimme von Menschen, die dann etwas sagen, was sie so nie gesagt haben. "Die grundlegende Idee eines Audio-Deepfakes ist, dass die KI den Zusammenhang zwischen der menschlichen Stimme und der Schrift lernt", so Müller. "Das bedeutet, die Anwendung wird sozusagen mit ganz vielen Audio-Sätzen gefüttert und kriegt das entsprechende Transkript dazu." Dann lerne sie, wie dieser Text klingt, zum Beispiel mit der Stimme von Frau Merkel. "Und dann kann ich das nutzen, um einen neuen von mir gewählten Text einzugeben, den die Anwendung dann in der Stimme von Frau Merkel wiedergibt", erklärt Müller.

Bei einem Video- oder Foto-Deepfake ist der vermeintlich bekannte Mensch nicht nur zu hören, sondern sogar zu sehen. Beim Video gibt es laut Müller verschiedene Technologien - etwa, die Lippenbewegungen zu ändern. "Man erstellt zunächst Audio-Fakes und trainiert damit ein KI-Modell, das die Lippenbewegungen rekonstruiert. Mithilfe der Fake-Audiospur rekonstruiert dieses Ki-Modell dann die Lippenbewegung des Fake-Audios". Bei der zweiten Methode müsse man dem Wissenschaftler zufolge von einem existierenden Video das Gesicht austauschen. "Das heißt, man stellt sich vor die Kamera, man spricht einen Satz, und dann wird im Nachhinein das Gesicht ausgetauscht", so Müller.

Die Technologie als solche ist nicht unbedingt zu verteufeln, sondern sie ist mehr als Werkzeug zu verstehen.

Nicolas Müller, Fraunhofer Institut

Deepfake-Technologien bieten auch Chancen

Müllers Job beim Fraunhofer-Institut ist es, die Gefahren, die mit der neuen Technnik einhergehen, zu minimieren - damit ihre positiven Bereiche die Tech-Welt bereichern können. Kranke, die dadurch weiterhin mit ihrer eigenen Stimme sprechen könnten, würden davon etwa profitieren.

Da die Anwendungen in diesen Bereichen immer besser werden, sind Fakes auch immer schwerer von realen Inhalten zu unterscheiden. Das macht sie anfällig für Missbrauch. "Es gibt aus meiner Sicht kein Deliktfeld, wo Deepfakes keine Rolle spielen", so Rüdiger von der Polizeihochschule Brandenburg. Er bezieht sich mit seinen Angaben nicht auf die Region Brandenburg, sondern auf die gesamte digitale Welt. Die gängigsten Beispiele sind ihm zufolge Betrugsdelikte wie der Enkeltrick. Ein älterer Mensch wird vermeintlich von einem seiner Kinder angerufen, das in großer Not ist und nur durch die Überweisung einer großen Summe gerettet werden kann. Durch KI-Manipulation stimmt die Stimme unverwechselbar mit der des Kindes überein. Im politischen Bereich betreffe es Fake News, also Politiker:innen, die in einer Audio- oder Videoaufnahme etwas sagen, was sie so nie in Wirklichkeit gesagt haben. Ein großes Feld sei laut Rüdiger auch die Pornografie: "Schon seit einigen Jahren ist es möglich von jedem ein Bild zu nehmen und dann zum Beispiel täuschend echte Nacktaufnahmen generieren zu lassen".

Wissen über Möglichkeiten als Schutz

Das Europaparlament möchte bis Ende des Jahres ein Gesetz beschließen, das jeglichen Umgang mit Künstlicher Intelligenz reguliert. Laut einem Entwurf von Juni 2023 müssen bei Deepfakes generierenden KI-Tools die Nutzer:innen vor der Anwendung informiert werden, dass sie Künstliche Intelligenz nutzen werden.

Ein generelles Verbot solcher Technologien sei eher schwierig, meint Müller vom Fraunhofer Institut. "Die Technologie ist da, die Beschreibungen sind publiziert, der Code davon ist öffentlich zu finden", so Müller.

Müller wie auch Rüdiger setzen beide vielmehr darauf, Menschen bewusst zu machen, was mittlerweile alles möglich ist und dass nicht alles, was im Netz kursiert oder einen über das Telefon erreicht, wahr ist.

"Ich wünsche mir die verpflichtende Vermittlung von Medienkompetenz ab der ersten Klasse an jeder Schule in ganz Deutschland. Für mich ist die Vermittlung von Medienkompetenz auch eine Art von Kriminalprävention", so Rüdiger von der Polizeihochschule. Weil seiner Meinung nach an der Stelle zu wenig passiert, nutzt er seinen privaten Instagramm-Account, um zu zeigen, was KI alles möglich machen kann. Er präsentiert sich seinen knapp 25.000 Followern dort als Frau, als Teenie und alter Mann. "Einfach um zu zeigen, dass nicht alles echt ist, was man so sieht". Ihm sei es dabei vor allem wichtig, Kinder und Jugendliche zu erreichen.

Täglich neue Anwendungen auf dem Markt

Auch das Fraunhofer-Institut versucht Menschen die Möglichkeit bewusst zu machen, dass etwas fake sein könnte. So ist auf der Website demonstriert, wie ein von ihnen gewählter Text von Angela Merkels Stimme nachgesprochen wird. Aber auch Künstliche Intelligenz kann vor Künstlicher Intelligenz schützen. Daran arbeitet unter anderem Nicolas Müller: "Wir entwickeln KI-Modelle, die Fakes gut und zuverlässig erkennen können, und mit einer hohen Trefferquote. Das ist eine große Herausforderung, weil sich das Feld sehr stark entwickelt und täglich neue Fake-Modelle auf den auf den Markt kommen".

Den Schaden, den Deepfakes anrichten können zu schmälern, findet er wichtig, denn er sieht auch die Chance, die diese Technologien bieten: "Die Technologie als solche ist nicht unbedingt zu verteufeln, sondern sie ist mehr als Werkzeug zu verstehen. So ein bisschen wie ein Messer - das kann man missbrauchen, aber eben auch gebrauchen".

Sendung: rbb24 Inforadio, 04.10.2023, 07:10 Uhr

Beitrag von Anna Bordel

24 Kommentare

Wir schließen die Kommentarfunktion, wenn die Zahl der Kommentare so groß ist, dass sie nicht mehr zeitnah moderiert werden können. Weiter schließen wir die Kommentarfunktion, wenn die Kommentare sich nicht mehr auf das Thema beziehen oder eine Vielzahl der Kommentare die Regeln unserer Kommentarrichtlinien verletzt. Bei älteren Beiträgen wird die Kommentarfunktion automatisch geschlossen.

  1. 24.

    „ Also Entwicklung, Verbreitung und Anwendung verbieten bzw. maximal bestrafen ... Jetzt !“
    Hat das beim Drogenhandel funktioniert ?
    Ich bin da kein Experte aber z.B. bei Kryptowährung wird für Sicherheit gesorgt ohne das der Staat eingreift (eingreifen kann).
    Blödsinn verbreiten klappt aber auch ohne KI
    https://www.stern.de/neon/-dj-oetzi-fan---oesterreichische-medien-fallen-auf-fake-zitat-von-prinz-harry-rein-33111850.html

  2. 23.

    Der Zug ist abgefahren.
    Das lässt sich nicht mehr einfangen.
    Die Software ist längst kostenlos verfügbar.
    Einzig die Rechenleistung stellt eine Barriere dar.

  3. 22.

    Deepfakes werden mit Hilfe von KI produziert. Insofern geht es sehr wohl um KI. Denn deren Nutzung muss umfassend reglementiert werden, um Depfakes zu vermeiden bzw. zu identifizieren.

  4. 21.

    Es geht doch hier gar nicht um die sog. KI, sondern um DEEP-FAKES … Der Gefahr des Verlustes der sicheren Authentizität von Bild- und Ton-Material … Im Bereich des Journalismus und des Gerichtswesens insbesondere … Es droht sogar der Verlust der sicheren Verifizierung einer Information wenigstens anhand einer allseits be- und für ihren Wahrheitsgehalt anerkannten Stimme … Das wird irre, wenn wir das nicht JETZT ganz schnell einfangen und im Giftschrank wegsperren … Die Dimension der möglichen Schäden ist ohne Übertreibung apokalyptisch ... Das Problem liegt doch ganz offen auf der Hand … Also Entwicklung, Verbreitung und Anwendung verbieten bzw. maximal bestrafen ... Jetzt !

  5. 20.

    Wenn ich teile der Ampel sehe und höre glaube ich manchmal auch an Fake - so dumm kann man nicht sein, denkt man immer. Und dann stimmt es leider doch

  6. 19.

    Also wer Angst vor KI hat sollte mal ausrechnen, wieviele Stunden im Jahr er/sie vor dem Smartphone hängt. Das ist gruselig...

  7. 18.

    Stimmt leider. Man erlernt zwar die Funktionsweise, wird aber kaum im verantwortungsvollen Umgang geschult. Auch das eigene Wissen wird oft vernachlässigt, weil man sich komplett auf die Technik verlässt. Erinnert mich ein wenig an meinen alten Mathelehrer, der uns Wurzeln im Kopf ziehen ließ. Als wir uns darüber beschwerten, weil wir doch Zahlentafeln hatten, in denen man die Ergebnisse nachschlagen konnte, sagte er: Was, wenn ihr die nicht zur Hand habt?

    Aber das alles kann nicht bedeuten, dass wir auf moderne Medien und all ihre Möglichkeiten verzichten sollten, sondern muss dazu führen, dass wir lernen, bewusster mit ihnen umzugehen. Dann werden wir auch erkennen, dass nicht jede Anwendungsmöglichkeit sinnvoll oder zielführend ist.

  8. 17.

    Ja, das Digitale ist normal, aber muss der Mensch das Smartphone so behandeln, dass er es den ganzen Tag als engster Begleiter sieht von früh bis in die Nacht?
    Er klammert sich an das Handy, wie eine Klette um nichts zu verpassen. Da wird öfter mal ein Baby abgelegt ins Bett, als ein Handy. Ist das heute ein ganz normaler Alltag für alle? Ich sage nein, denn jeder kann noch selbst entscheiden,
    ob er unter Druck von außen seinen privaten Alltag ständig einem technischen Gerät widmet. Das hat mit einem jungen oder höheren Alter nichts zutun.
    Beim Business sehe ich es anders, da geht es um Umsatz, um laufende Termine, als Chef immer erreichbar zu sein.

  9. 16.

    Da stimme ich sogar weitgehend zu. Nur ist meine Schlussfolgerung eine andere. KI lässt sich nicht verbieten. Die Nutzung muss jedoch reguliert und kontrolliert werden, und zwar international.

    Und selbstverständlich muss man die Menschen möglichst von klein auf zu einem moralisch vertretbaren Umgang mit KI erziehen. Ist natürlich schwer vorstellbar mit z.B. Lehrern, die mit den bei der Jugend gängigen Medien selbst nicht umgehen können.

    Aber nur, weil es nicht nur hierzulande noch jede Menge Versäumnisse nachzuholen gilt, sollten wir nicht gleich nach Abschaffung rufen.

  10. 15.

    Die KI hat sich nicht selbst erfunden! Menschen haben die KI in die Welt gesetzt, was mehr Nachteile mit sich bringt. Das Kriminalität gefördert wurde durch das Internet und den Apps, kann nicht mehr verleugnet werden. Ich sehe keinen Sinn Videos, Bilder ins Netz zu stellen, ebenso skype ich nicht, lese, schreibe mal harmlose Kommentare, arbeite darin und mehr braucht der Mensch nicht. Das Internet ist eine Technik, was den Menschen mehr schädigt, als bereichert. Ist wird die Zeit kommen für Menschen, dass sie evtl. einen Internetführerschein benötigen, um Echtes vom Falschen unterscheiden zu können. Von Link zu Link springen ist Vorsicht geraten, jeder bestimmt damit sein eigenes Internet-Leben. Warum ich nicht skype? Muss jeder mitbekommen, in welcher optischen Verfassung man ist? Die Politik zwingt uns zum Digital, dann muss sie sich auch um die Sicherheit kümmern. Warum ich nicht skype? Muss jeder mitbekommen, in welchen privaten Outfit man gerade ist?

  11. 14.

    Die Atombombe ist ein tötliches Nebenprodukt der Atomforschung. Sollte diese deshalb unterbunden werden?

    Ich stimme Ihnen zu, in den falschen Händen, mit negativen Absichten kann alles zur Gefahr werden, vor allem, wenn es auch noch mit wirtschaftlichen Interessen verknüpft wird. Aber sollten wir deshalb jegliche Neuentdeckung oder Weiterentwicklung stoppen? Dann müssten wir die Zeit jetzt sofort anhalten.

    Neugierig zu entdecken, zu forschen und auszuprobieren ist Teil der menschlichen Natur. Aber es ist wichtig, alles in die richtigen Bahnen zu lenken. Und darauf sollten wir uns konzentrieren. Alles, was ethisch vertretbar ist, sollte gemacht werden dürfen. Aber wir brauchen dafür dringend Regularien. Statt die Abschaffung der KI zu fordern, sollten wir auf ein internationales Regelwerk für die Nutzung von KI sowie entsprechende Kontrollmechanismen drängen. Und in den Schulen wie in Elternhäusern sollte Moral und Ethik wieder ein wichtiges Thema sein.

  12. 13.

    Ich mache es einfach um klar zu sein ... Die Atombombe gibt es auch ... Die hat sich auch "entwickelt" ... Und nun ?! ... Soll sie Jeder weiterentwickeln, verbreiten und anwenden wie er will, ja ?! ... Nein, bestimmt nicht !

  13. 12.

    Der Nutzer Katapult hat völlig recht.
    Es sind die Kombination aus Bildungsmisere, Hackerparagraph, NSA Lücken in Hard- und software, der Zeitfaktor und die allgemeine Dynamik politisch - wirtschaftlicher Prozesse.
    Deepfakes können enormen Schaden anrichten.
    Nicht ohne Grund werden schon spieltheoretische Interventionen am Massenmarkt als moderne Wasserstoffbomben bezeichnet, wichtiger als die Entwicklung der Atombombe.
    In diesem Fall, der deepfakes, ist eine ausgeklügelte Kombination aus diversen technischen Anwendungen notwendig. Diese Strategie kann allerdings eine KI gestützte Anwendung generieren. Sie brauchen nur noch die Kontrolle über die technische Infrastruktur um die kritische Masse zu erreichen. Eine andere kritische Masse als bei einer Kernwaffe, versteht sich.

  14. 11.

    Sie nutzen selbst gerade ein Medium. Und das ist auch nicht mehr das, was es früher mal war. Es hat sich weiterentwickelt, positiv wie negativ. Würden Sie deshalb auf Computer, Smartphone, Internet verzichten? Nein, das, was anfangs ebenfalls verteufelt wurde, ist heute ganz normaler Alltag. Wir leben in einer medialen Welt. Sie können die Zeit nicht zurückdrehen, nur Regeln und Kontrollmechanismen schaffen sowie für die erforderliche Erziehung, Bildung und Aufklärung sorgen.

  15. 10.

    Wenn ich einen brandgefährlichen Sumpf austrocknen muss, frage ich doch nicht die Frösche … Also weder Hollywood, noch irgendwelche IT-Konzerne oder sonstige Nerds, die sich mit diesem hochexplosiven gesellschaftlichen Sprengstoff den ganzen Tag beschäftigen um damit Geld zu verdienen bzw. zu ergaunern … Aber ohne dessen wirklich unfassbar großes Risiko richtig einzuschätzen !

  16. 8.

    Das Problem sind doch Leute, die völlig unkritisch mit Medien umgehen, sei es web.de, tiktok oder eben KI. Hier wäre ein weiteres mal der Bildungsapparat gefragt, Menschen zu kritisch denkenden Individuen zu erziehen. Aber vielleicht will das nicht einmal jede/r...

  17. 7.

    In unser mittlerweile medial geprägten Welt ist das kein Messer, sondern eine ATOMBOMBE !!! ... … Verbot und allerhöchste Strafen für Entwicklung, Verbreitung und Anwendung !!! … Zu welchem „guten Zweck“ könnte das je gebraucht werden ?! … Zu keinem !!!

  18. 6.

    Also ich seh da wenig positive Anwendungsmöglichkeiten, und auch dem Experten ist dazu ja fast nichts eingefallen. Daher finde ich dieser Messer vergleich hinkt gewaltig, für mich ist das eher eine Dystopie.

    Man kann natürlich mit einem Bruchteil des Personalaufwands endlis weitere Folgen von "Sturm der Liebe" generieren. Aber ob das nun gut ider schlecht ist?

  19. 5.

    Schutz bietet auch die digitale Signatur von Dokumenten. Hätte sowas wie De-Mail lösen können, wenn da nicht jemand in der Chain so raffgierig gewesen wäre, dass De-Mail jetzt zu Grabe getragen wird.

Nächster Artikel