Monitor mit ChatGPT

Rechtsanwalt in den USA Wenn KI nach hinten losgeht

Stand: 09.06.2023 13:27 Uhr

Ein Rechtsanwalt in New York ließ ChatGPT Präzedenzfälle für eine Klage raussuchen. Doch die Künstliche Intelligenz denkt sich Urteile einfach aus. Es ist nicht der einzige Fall, in dem KI negativ auffällt.

Der Fall klang nicht kompliziert: Ein Mann klagt gegen eine Airline, weil ihm auf einem Flug durch einen Servierwagen das Knie verletzt worden sei. Sein Anwalt sucht nach Vergleichsurteilen, um die Klage zu unterfüttern. Und bemüht den Chatbot ChatGPT. Der spuckt gleich auch Fälle aus: "Petersen gegen Iran Air" oder "Martinez gegen Delta Airlines". Der Bot versieht sie sogar mit Aktenzeichen.

Doch als der Jurist seinen Antrag beim Gericht einreicht, kommt raus: Die Fälle sind Fake. Ein gefährlicher Vorgang, sagt der Leiter des Instituts für Jura und Ethik an der Fordham-Universität in New York, Bruce Green. Der zuständige Richter nennt den Fall beispiellos. Die Juristengemeinde ist alarmiert. Der Klägeranwalt beteuert unter Eid, er habe das Gericht nicht täuschen wollen, sondern sich auf die Künstliche Intelligenz verlassen.

"KI-Recherchen gegenchecken"

Das war sicherlich nachlässig, vielleicht sogar leichtsinnig, sagt Green: "Die Regeln für Anwälte hier in den USA sagen ganz klar: Sie müssen souverän mit neuen technischen Werkzeugen umgehen, die sie nutzen, und sie müssen um die Gefahren und Fallstricke wissen."

Wer das Programm ChatGPT kenne, wisse, dass es auch Dinge erfinden könne. "Wenn dieser Anwalt wusste, wie er das Programm für seine Recherche einsetzen konnte, dann hätte er so klug sein müssen zu wissen, dass die Recherche, die die Künstliche Intelligenz macht, gegengecheckt werden muss."

Datenschutz als weiteres Problem

Manche US-Richter fordern jetzt eine Regulierung für den Einsatz von Künstlicher Intelligenz im US-Justizsystem. Auch Green sieht die Gefahr: Eine Beweisführung mithilfe eines Chatbots könne nicht nur falsche Informationen enthalten. Sie könne auch die Vertraulichkeit verletzen, die ein Anwalt seinen Klienten zusichern muss. "Etwa bei Informationen, die ein Klient nicht preisgeben möchte: Wenn sie in Künstliche Intelligenz eingespeist werden, kann die sie weiter verbreiten."

In den vergangenen Monaten sorgten Chatbots wie ChatGPT für viele Diskussionen um Anwendungen Künstlicher Intelligenz. Solche Software wird auf Basis gewaltiger Datenmengen trainiert. Experten warnen: Die Technik könne auch frei erfundene Informationen ausgeben.

Abnehmtipps für Essgestörte

Oder gar gefährliche, wie ein Chatbot, den die größte gemeinnützige Organisation für Essstörungen in den USA einsetzte. NEDA, mit Hauptsitz in New York, ersetzte rund 200 Mitarbeiter ihrer Helpline durch Chatbot "Tessa" - entwickelt von einem Team der medizinischen Fakultät der Washington University in St. Louis. "Tessa" war trainiert worden, um therapeutische Methoden bei Essstörungen anzuwenden. Doch Hilfesuchende erlebten Überraschungen.

Sharon Maxwell beispielsweise. Sie leidet unter schweren Essstörungen: "Und dieser Chatbot sagt mir, ich soll ein bis zwei Pfund pro Woche verlieren und meine Kalorienzufuhr um bis zu 1000 am Tag reduzieren." Von zehn Tipps des Chatbots seien drei mit einer Diät verbunden gewesen. Tipps, die sie vor Jahren selbst in die Spirale der Essstörungen gebracht habe. Solch mechanischer Rat sei für Menschen wie sie mehr als gefährlich, sagt Maxwell.

KI noch nicht reif für therapeutische Gespräche

Die Aktivistin alarmierte ihre Follower in den Sozialen Medien. Viele hatten bereits ähnliche Erfahrungen gemacht. Doch da hatte auch NEDA schon reagiert: Die Organisation habe gemerkt, dass die derzeitige Version von "Tessa" möglicherweise schädliche Infos gegeben hätte, die nicht im Sinne ihres Programms gewesen seien. "Tessa" wurde vorerst aus dem Verkehr gezogen und soll nun noch einmal untersucht werden.

Das begrüßt die Leiterin des Teams, das den Chatbot entwickelt hat. Ellen Fitzsimmons-Craft sagte dem ARD-Studio New York: Künstliche Intelligenz sei noch nicht ausgereift genug, um auf Menschen mit psychischen Problemen losgelassen zu werden. Und genau deshalb sei "Tessa" ursprünglich ohne Künstliche Intelligenz konstruiert worden. Diese Komponente hatte eine Anwenderfirma dem Bot nachträglich zugefügt.

Antje Passenheim, ARD New York, tagesschau, 09.06.2023 11:32 Uhr