PXL_OpenAI OpenAI-Website auf dem Computer geöffnet.

Streit um Urheberrechte Müssen Künstler und Autoren für KI entschädigt werden?

Stand: 23.06.2023 08:20 Uhr

Künstliche Intelligenz bedient sich mit Computerprogrammen in großem Stil bei Produkten der menschlichen Kreativität. Künstler, Grafiker oder Autoren fragen sich: Ist das fair?

Von Johannes Edelhoff, Esra Özer und Tina Soliman

Die neuen Bild- und Sprachprogramme, allen voran ChatGPT, haben in kurzer Zeit die Welt der sogenannten Wissensarbeiter auf den Kopf gestellt. Und genau das war auch die Absicht des Unternehmens Open AI. ChatGPT solle gerade Kreativen dabei "helfen", Songs zu komponieren, Drehbücher zu schreiben oder Stile von Schriftstellern zu imitieren, erklärte Open-AI-Chef Sam Altman. Und es könne all die Arbeiten billiger machen und sie so ersetzen: "Der Kosten von Intelligenz, von intelligenter Arbeit werden gegen Null tendieren. Ich hoffe, dass es so kommen wird", sagte Altman in einem Podcast.

Texte, Bilder oder Musik - bislang menschliche Hand- beziehungsweise Kopfarbeit - kann nun durch KI automatisiert und seriell hergestellt werden, schon bald zum Nulltarif. Der Siegeszug der Künstlichen Intelligenz könnte viele Arbeitsplätze überflüssig machen. Hinzu kommt: Derzeit bedienen sich KI-Bildgeneratoren bei Material, das sie aus allen Ecken des Internets in ihren Datenbanken speichern. Dabei nehmen sie keine Rücksicht auf Bilder, die urheberrechtlich geschützt sind.

"Pferdekutscher fanden Autos auch schlecht"

"Es gibt genug Künstler, denen gesagt wurde: Ja, Danke für das Angebot, wir haben Deinen Tagessatz mal so durch das System laufen lassen. Wir haben festgestellt, dass wir mit Midjourney die Sachen alle günstiger generieren können", sagt der Grafiker und Verleger Spiridon Giannakis. Er fordert eine strenge Regulierung und dass KI-Unternehmen Künstler entschädigen müssen.

Richard Socher gilt als der einflussreichste Deutsche der Künstliche-Intelligenz-Wirtschaft. Im Silicon Valley hat er die KI-Suchmaschine You.com gegründet - eine Konkurrenz zu ChatGPT und Google. Grafiker müssten akzeptieren, dass die Welt sich verändere, sagt er im Interview mit dem ARD-Magazin Panorama: "Pferdekutscher fanden es auch schlecht, dass Autos automatisiert fahren konnten und man keinen Kutscher mehr brauchte. Ähnlich, wenn man jetzt Illustrator ist."

Seine Firma bietet KI-generierte Bilder an - entschädigen will er Künstler dafür nicht. "Dali hat die Uhr so ein bisschen verflossen gemalt. Und wenn jetzt jemals einer sagt: Oh, ich will einen verflossenen Gegenstand in meinem Bild haben, dann kommt Dali und sagt, das ist von mir beeinflusst und jetzt musst du mir vielleicht fünf Euro pro Pixel zahlen. Das macht keinen Sinn." Er könne die Kreativen zwar verstehen. "Wenn ein Künstler damit momentan sein Geld verdient, will er natürlich keine Automatisierung haben", sagt Socher. Alle wollten eben möglichst viel Geld verdienen.

Milliardenschwere Konzerne profitieren

Dass bei der KI überraschend gute Ergebnisse herauskommen, liegt daran, dass die Sprachprogramme mit Milliarden von Parametern gefüttert wurden, insbesondere auch mit den Inhalten derer, die dann von der KI ersetzt werden könnten. Unternehmen verleiben sich also das Wissen und Können der Welt ein und kopieren Stile, ohne die Kreativen dafür zu honorieren oder sie zu erwähnen. Alles, was KI tut, speist sich aus den vom Internet verfügbar gemachten Werken unzähliger Menschen.

Das sei zynisch und existenzbedrohend, klagen Kreative, denn trainiert würden ja die "Kunst"-Generatoren mit ihrem Bildmaterial. "Wer profitiert denn momentan von der Künstlichen Intelligenz? Sind wir das oder diejenigen, die milliardenschwere Unternehmen auf dem Rücken der Leute gegründet haben, deren Daten da eingespeist wurden? Das ist nicht fair", sagt der Grafiker Giannakis. In jeder Unterhaltung, die er mit Künstlern führe, seien die Sorgen groß.

You.com-Gründer Socher arbeitet seit zehn Jahren im Silicon Valley. Er wundert sich, dass die Europäer der neuen Technik gegenüber so skeptisch sind. Das sei in Kalifornien ganz anders: "Wenn dort eine neue Technologie kommt, sehe ich besonders im Silicon Valley Hunderte meiner Freunde, die sagen: Wow, wie kann ich das jetzt benutzen? Und vielleicht kann ich da ein Start-up aufmachen, was diese neue Technologie nutzt, um etwas noch produktiver zu machen, noch effizienter. In Deutschland ist die Einstellung erst erstmal: Was könnte damit schief gehen? Jobverlust? Wie müssen wir das erstmal regulieren, bevor es überhaupt richtig funktioniert?"

Texte als Rohstoff

Der ehemalige Journalist Michael Keusgen hat das Unternehmen Ella gegründet. Das Kölner Start-Up fütterte seine Sprachmodelle mit massenhaft Textdaten: mit Aufsätzen, Fachbüchern, aber auch mit Fiktionalem - Texte als Rohstoff. Allerdings hat Keusgen dafür die Rechte gekauft. So will er die Medienbranche revolutionieren, vor allem in Print- und Online-Redaktionen.

"Wir produzieren im Moment paraphrasierte Texte und werden mehr und mehr auch Texte schreiben. Aber bei Fakten ist die Komponente Mensch unerlässlich", erklärt Keusgen. Es müsse einen Redakteur geben oder eine Redakteurin, die am Ende das Lektorat machen, um das zu überprüfen.

Seine Sprachmodelle arbeiten wie alle großen KI-Programme: sie berechnen auf Basis statistischer Wahrscheinlichkeit, welches Wort oder welcher Satz als nächstes kommen könnte - und dabei kommt nicht immer Sinnvolles heraus. Die Erwartung kann also nicht sein, dass die KI immer die Wahrheit sagt, denn sie kann Fiktion nicht von der Realität unterscheiden. Die Antworten können, auch wenn sie keine Faktengrundlage haben, überzeugend wirken.

Für Fakten ungeeignet

Die Informatikerin Katharina Zweig rät deswegen ganz davon ab, KI im Journalismus einzusetzen: "Ich glaube, wenn man KI-Systeme verwendet, um Texte zu schreiben, deren faktischen Inhalt man nicht selber überprüfen kann, dann verwendet man diese Maschinen völlig falsch. Dafür sind sie nicht trainiert worden."

Das sei bei Open AI schon falsch gelaufen. Es sei ein gefährliches Missverständnis, dass man ChatGPT etwa für Sechsjährige erklären lassen könne, wie Quantencomputing geht. Deswegen empfehle sie: "Benutze es nicht für Texte, deren faktischen Inhalt du nicht selbst überprüfen kannst."

Dieses Thema im Programm: Über dieses Thema berichtete Panorama am 22. Juni 2023 um 21:45 Uhr.