KI Tongyi Qianwen von Alibaba
hintergrund

Künstliche Intelligenz in China Chatbot mit "sozialistischen Grundwerten"

Stand: 15.06.2023 11:08 Uhr

Chinas Techriese Alibaba will im Geschäft mit Künstlicher Intelligenz mitmischen. Gleichzeitig bereitet Peking staatliche Auflagen vor. Aber auch im Westen müssen sich Regierungen fragen: Wie viel Regeln braucht die Technologie?

Von Von Antonia Mannweiler, tagesschau.de

Für den chinesischen Internet-Riesen Alibaba war es eine große Ankündigung. Die Cloud-Sparte des Online-Handelskonzerns hat heute ein Konkurrenzangebot zum Textroboter ChatGPT vorgestellt: die Sprachsoftware "Tongyi Qianwen", was so viel wie "Wahrheit aus tausend Fragen" bedeutet, die ebenfalls Künstliche Intelligenz (KI) einsetzt. Doch nur kurz darauf dürfte die Freude der Entwickler einen kräftigen Dämpfer erhalten haben. Gleichzeitig veröffentlichte die chinesische Internet-Regulierungsbehörde, die "Cyberspace Administration of China", den ersten Entwurf geplanter Vorschriften für KI-Dienstleistungen.

In 21 Punkten stellt die Behörde mögliche Auflagen vor, die bald auf die chinesischen Unternehmen und Entwickler von KI-Sprachmodellen zukommen könnten. So müssen die Inhalte nach dem Willen Pekings die "Grundwerte des Sozialismus" widerspiegeln. Zudem dürfen keine Informationen verbreitet werden, welche die wirtschaftliche und soziale Ordnung stören könnten. Auch soll bei der Entwicklung der Algorithmen darauf geachtet werden, Diskriminierung etwa aufgrund von Geschlecht oder Alter zu verhindern.

Bot mit "Halluzinationen"

Ein Problem für die Entwickler dürfte dabei auch die Regel darstellen, dass alle Inhalte wahrheitsgemäß sein sollen. Die Entwicklung von KI-Sprachmodellen befindet sich derzeit noch in einem frühen Stadium. In vielen Fällen arbeitet die Software noch ungenau und durchaus fehleranfällig. Ein peinlicher Irrtum unterlief etwa Google bei der Vorstellung seines Chatbots "Bard", der bei seinem ersten öffentlichen Auftritt eine falsche Antwort zum James-Webb-Teleskop gab. Alibabas Chatbot ist dagegen zunächst auf das Geschäftsleben ausgerichtet und soll etwa Dokumente oder E-Mails verfassen.

Es bleibe jedoch abzuwarten, wie gut sich der Bot im Rennen mit der Konkurrenz schlage, sagt George Karapetyan, KI-Fachmann bei der Beratung LPA gegenüber tagesschau.de. "Ersten Anwenderberichten zufolge hatte Alibabas Bot außerdem bereits 'Halluzinationen', was letztlich bedeutet, dass er selbstbewusst falsche Antworten gibt."

Die chinesische Regulierungsbehörde will solchen falschen Inhalten nun Einhalt gebieten. Bis zum 10. Mai dürfen zum Vorschriften-Katalog noch Kommentare und Vorschläge eingereicht werden. "Da die chinesische Regierung beginnt, zu regulieren und vorzuschreiben, was diese Bots sagen dürfen und was nicht, könnte dies eine zusätzliche Hürde bei der Abwägung zwischen Innovation und Einhaltung von Vorschriften darstellen", so Karapetyan.

Entwickelt sich Technologie zu schnell?

Aus Sicht des Experten kann die frühzeitige Einführung eindeutiger Regeln für die Unternehmen andererseits auch hilfreich sein, um das Risiko unvorhergesehener Ergebnisse zu mindern. "Gelingt es China frühzeitig, klare Leitplanken zu definieren, birgt dies auch Chancen." Es könne jedoch schwierig sein, eine Technologie zu regulieren, die sich so schnell entwickelt und so intelligent sei. Jeden Tag werde berichtet, wie Internetnutzer die Schutzmechanismen zur Kontrolle der Bots umgehen.

Alibaba ist dabei nur das jüngste Beispiel eines chinesischen Konzerns mit eigenem Textroboter. Nur einen Tag zuvor hatte das in Hongkong ansässige KI-Unternehmen SenseTime in einer Live-Demo seinen Chatbot "SenseChat" vorgestellt, auf den die Börse mit einem kräftigen Kursplus reagierte. Und nicht zuletzt demonstrierte auch die chinesische Suchmaschine Baidu seinen Chatbot "Ernie Bot", der jedoch für weniger Begeisterung und einen fallenden Aktienkurs sorgte.

"Chinesische Bots hinken im Moment noch hinterher und konzentrieren sich primär auf die chinesische Sprache", so KI-Fachmann Karapetyan. Im Moment sei ChatGPT, die vom Start-up OpenAI konzipierte und von Microsoft unterstützte Software, der "klare Marktführer und der Goldstandard" unter den Chatbots.

Wie antworten die Regierungen?

Die Konkurrenten von Microsoft und ChatGPT in der Tech-Branche sind unter Zugzwang geraten, ihr Geschäft mit Künstlicher Intelligenz voranzutreiben, auch wenn das Produkt noch unreif ist. Gleichzeitig wächst angesichts der rasanten Entwicklung der Druck auf Regierungen weltweit, Antworten auf die Frage zu finden, wie der Gesetzgeber reagieren soll.

In den USA kündigte die IT-Behörde NTIA ("National Telecommunications and Information Administration") heute öffentliche Beratungen zu möglichen staatlichen Maßnahmen an. "Genauso wie Lebensmittel und Autos nur dann auf den Markt kommen, wenn ihre Sicherheit gewährleistet ist, sollten auch KI-Systeme der Öffentlichkeit, der Regierung und den Unternehmen die Gewissheit geben, dass sie für ihren Zweck geeignet sind", hieß es in einer Mitteilung. Die Behörde könnte der Politik am Ende etwa Sicherheitsbewertungen oder Zertifizierung von Künstlicher Intelligenz empfehlen.

Italien setzt ChatGPT eine Frist

Auch in der EU wird nach staatlichen Regeln für die neue Technologie gesucht. Zuletzt hatte die italienische Datenschutzbehörde für Aufsehen gesorgt, die ChatGPT im Land vorerst sperren ließ. Dabei ging es vor allem um Sorgen wegen der massenhaften Sammlung personenbezogener Daten und des Jugendschutzes. Italien hat OpenAI 20 Tage Zeit gegeben, um über die weiteren Maßnahmen des Unternehmens zu informieren. Andernfalls könnte eine Strafe von bis zu 20 Millionen Euro oder vier Prozent des Jahresumsatzes drohen.

Bereits vor zwei Jahren hat die EU-Kommission den Entwurf einer KI-Verordnung vorgestellt, die noch in diesem Jahr in Kraft treten könnte. Regulierung sei in diesem Bereich auch dringend notwendig, sagt Paul Lukowicz, Leiter des Forschungsbereiches Eingebettete Intelligenz am Deutschen Forschungszentrum für Künstliche Intelligenz (DFKI) tagesschau.de. Die Technologie werde die Welt verändern, wie man es heute nicht einmal erahnen könne. Daher könne man diese nicht im Sinne eines "Wildwuchses" einfach laufen lassen.

Mögliches "Wasserzeichen" für Bots

Wo menschliches Leben, die Gesundheit oder Freiheit betroffen seien, seien strengere Regeln nötig, findet Lukowicz - in anderen Bereichen, wo die Technologie keinen Schaden anrichte, dagegen nicht. Nicht Forschung oder Entwicklung seien das Problem, sondern die Frage, wo eine Technologie eingesetzt werde.

Langfristig könnte sich Lukowicz etwa eine Art "Wasserzeichen" für von Bots erstellte Inhalte vorstellen. Bei den Regeln für Künstliche Intelligenz zieht der Experte Parallelen zur Pharmabranche: Auch bei Medikamenten wüssten die wenigsten, wie sie funktionieren, aber dass sie funktionieren. Für Arzneimittel seien Studien vorgeschrieben, es gebe strenge Zulassungsprozesse - und trotzdem Fälle von verursachten Schäden. Es geht aus Sicht von Lukowicz also vor allem um eine ausgewogene Kosten-Nutzen-Analyse.

Dieses Thema im Programm: Über dieses Thema berichtete MDR um 4 am 03. April 2023 um 16:00 Uhr.