ChatGPT

Nutzung von KI Ringen um die richtigen Regeln

Stand: 13.04.2023 10:00 Uhr

Die EU und die USA suchen nach dem richtigen Umgang mit Künstlicher Intelligenz - und den dafür nötigen Grenzen. Bei Beratungen in Los Angeles wurde vor allem eines deutlich: Es ist kompliziert.

Ein Diskussionsrunde in der EU-Vertretung in einem Hochhaus in San Francisco. Auf einer kleinen Bühne sitzen KI-Expertinnen und -Experten. Bei zwei Punkten scheinen sich alle einig: Die Technik der Künstlichen Intelligenz (KI) entwickelt sich so schnell, die Regulierung kommt einfach nicht mit.

"Wir sind bedeutend hinten dran", so die Expertenrunde. Und: Regeln für KI-Anwendungen zu machen sei einfach kompliziert.

Gilian Hadfield ist Professorin an der Universität von Toronto. Sie erforscht, wie neue KI-Regeln aussehen könnten und berät Open AI in Regulierungsfragen. Das ist die Firma, die ChatGPT und GPT4 erfunden hat - die KI-Plattformen, die seit Monaten viel Aufregung verursacht haben.

"Was die Regulierung angeht, gibt es jetzt viel mehr Aufmerksamkeit. Das ist gut", betont Hadfield. Denn Künstliche Intelligenz sei eine Technologie, die nicht nur einzelne Bereiche, sondern die ganze Wirtschaft verändere - bislang jedoch ohne Richtlinien.

"Regeln müssen in allen Bereichen funktionieren"

Das soll sich ändern. Das Paket, das EU-weit gelten soll, heißt "Künstliche-Intelligenz-Gesetz", auf englisch "Artifical Intelligence" oder kurz "AI-Act".

Lucilla Sioli, Direktorin für den Bereich Digitale Industrie in der EU-Kommission, arbeitet an den Gesetzen. Sie erklärt, warum das so kompliziert ist. Zum Beispiel, weil eben nicht nur einzelne Bereiche betroffen sind. "Es geht nicht nur um die Gesundheitsversorgung oder nur um den Arbeitsmarkt. Die Regeln müssen in allen Bereichen funktionieren", mahnt sie.

Unterteilung in Risiko-Kategorien

Der Plan: KI-Anwendungen sollen in vier Risiko-Kategorien eingeteilt werden: minimales, begrenztes, hohes und inakzeptables Risiko. Computerspiele gelten zum Beispiel als minimales Risiko. KI für die Massenüberwachung oder die Manipulation von Menschen fällt in die Kategorie inakzeptabel und soll verboten werden. Das sind die klaren Fälle.

Gerungen wird bei Anwendungen wie ChatGPT. Ist der Sprachbot eine Hochrisiko-Anwendung, weil er Desinformationen verbreiten könnte? Oder weniger risikoreich? In welche Kategorie die Anwendungen eingeordnet werden, sei wichtig, betont Sioli, denn "die Regeln des KI-Acts gelten nur für Hochrisiko-Anwendungen". Was bedeutet: Umso niedriger das Risiko, desto weniger Regeln. 

Laut der Nichtregierungsorganisation Corporate Europe Observatory setzten sich Konzerne wie Microsoft oder Google deshalb dafür ein, dass die eigenen Produkte in eine niedrigere Kategorie fallen. Gleichzeitig fordern Tech-Bosse wie Sam Altman von OpenAI oder Mark Zuckerberg von Meta öffentlich immer wieder eine Regulierung ein. Es ist eben kompliziert.

EU-Gesetz soll 2025 in Kraft treten

Bis Ende des Jahres sollen die EU-Regeln stehen und 2025 in Kraft treten. Auch US-Vertreterinnen und Vertreter diskutieren in der EU-Vertretung in San Francisco. Rebecca Bauer-Kahan sitzt im Landesparlament von Kalifornien und betont: "Egal ob EU oder USA", wer KI-Gesetze mache, stehe immer auch vor der Herausforderung, Innovationen nicht zu verhindern und gleichzeitig Menschen und die Demokratie zu schützen.

Wann umfassende KI-Regeln für die USA kommen, ist noch nicht absehbar. KI-Expertin Pamela Samuelson von der Universität Berkley ist der Auffassung, dafür müsse in den Vereinigten Staaten erst "eine große Katastrophe passieren". Erst dann werde reguliert.

Nils Dampz, Nils Dampz, ARD Los Angeles, zzt. San Francisco, 13.04.2023 06:53 Uhr

Dieses Thema im Programm: Über dieses Thema berichtete BR24 am 13. April 2023 um 11:50 Uhr.