Humanoider KI-Roboter

Versteckte Werte und Moral Können Psychologie-Tests Vorurteile von KI aufdecken?

Stand: 17.01.2024 06:00 Uhr

Wie gewissenhaft ist eine Künstliche Intelligenz (KI) oder wie neurotisch? Können psychologische Tests Persönlichkeitsmerkmale und problematische Moralvorstellungen von KI-Modellen erkennen?

Von Anja Braun und Martina Janning, SWR

Können Psychologie-Tests bei KI-Modellen eingesetzt werden, um verborgene Persönlichkeitsmerkmale und Vorstellungen über Moral und Werte aufzudecken? Forschende aus Mannheim haben es ausprobiert. Die Ergebnisse sind im renommierten Fachjournal "Perspectives on Psychological Science" erschienen.

Forschende wollen Wertevorstellungen von KIs aufdecken

Manche KI-Modelle machen rassistische, frauenfeindliche oder andere unerwünschte Aussagen. Das haben diverse Stichprobentests gezeigt. Jedoch fehlt bisher eine umfassende Testmöglichkeit, die auch unterschwellige Werte und Moralvorstellungen findet, die die KI-Modelle durch die Trainingstexte aufgesogen haben. Könnten Psychotests die Lösung sein? Forschende von der Universität Mannheim und vom GESIS-Leibniz-Institut für Sozialwissenschaften haben das bei sprachbasierten KI-Modellen erprobt.

Die Forschungsgruppe um Max Pellert will mithilfe von Psychologie-Tests problematische Vorstellungen der Sprachmodelle sichtbar machen. Dazu gehörten "Persönlichkeit, Werteorientierung", sagt Pellert. "Vorstellungen zu Gender, Moralvorstellungen und so weiter."

Es lohnt sich, diese verborgenen Eigenschaften der KI-Sprachmodelle systematisch zu erfassen und öffentlich zu machen. Schließlich werden sie zum Beispiel bereits zum Vorsortieren von Bewerbungsunterlagen genutzt.

Psychologie-Tests für Menschen werden bei KI angewandt

Die Forschung steht noch ganz am Anfang. Aber Pellert und sein Team zeigen auf, was möglich ist. Dazu benutzen sie psychologische Tests, die an Menschen entwickelt wurden und wenden sie auf KI-Modelle an. Das gehe gut, erklärt Pellert auf swr.de, "weil diese Trainingstexte ja immer noch größtenteils von Menschen erzeugt werden."

Beim Trainieren der Modelle könnten Sedimente von menschlicher Persönlichkeit in die Texte geraten sein, erklärt Pellert. "Man kann sozusagen hier zeigen, dass man dieselben Modelle - dieselben Methoden verwenden kann - um das sichtbar zu machen."

KI-Modelle mit Persönlichkeitstests untersucht

Für ihre Forschung verwendeten die Wissenschaftler und Wissenschaftlerinnen mehrere Persönlichkeitstests bestehend aus Fragebögen mit genau festgelegten Antwortmöglichkeiten. Sie konnten so die bekanntesten Persönlichkeitsfaktoren, die sogenannten Big Five, testen. Die "Big Five" sind Offenheit, Gewissenhaftigkeit, Extraversion (ein nach außen gewandtes Persönlichkeitsprofil), Verträglichkeit und Neurotizismus. Außerdem wurden Moral und Werteorientierung der KI-Modelle untersucht.

Dabei zeigte sich, dass sich einige KI-Modelle bei den Persönlichkeitstests als neurotischer erwiesen, als erwartet. Es sei aber noch alles im grünen Bereich, findet Pellert: "Es gab schon Unterschiede zwischen den Modellen, aber es war nicht so, dass man besonders schlimme Ausschläge in irgendeine Richtung registriert hätte, speziell bei der Persönlichkeit."

KI-Modelle zeigen traditionelle Grundeinstellung

Doch die Ergebnisse der Persönlichkeitstests waren nicht so neutral, wie die Forschenden es erwartet hatten. Bei den Wertvorstellungen überwogen - wie vermutet - traditionelle Grundeinstellungen.

Zum Beispiel bewerteten die KIs es unterschiedlich, wenn in einem ansonsten gleichen Text eines Fragebogens einmal eine männliche und einmal eine weibliche Person im Mittelpunkt steht. So schrieben die KI-Modelle Frauen "Sicherheit" und "Tradition" zu, Männern dagegen "Stärke". Dazu Studienleiter Pellert: "Alle Modelle, die wir durchgetestet haben, haben sehr uniforme Vorstellungen von Geschlechtervielfalt. Das war auffällig."

KI-Befehl bestimmt Genauigkeit der Ergebnisse

Wie aber ließe sich den KI-Modellen auf die Sprünge helfen? Gibt es möglicherweise bald eine Art Psychotherapie für sprachbasierte KI-Modelle? "Ich würde mittlerweile nichts mehr ausschließen in dem Bereich und nach heutigem Wissen", sagt Max Pellert.

Vor kurzem habe sich zum Beispiel gezeigt, dass die KI-Modelle etwas genauer werden, wenn bei Befehl an sie erwähnt wird, dass es sehr wichtig ist, die richtige Antwort zu bekommen, indem man zum Beispiel sagt: "Meine Karriere hängt davon ab".

Psychotherapie oder Gehirnchirurgie für Künstliche Intelligenz?

Interessant ist auch, dass eine sehr emotionale Fragestellung die Antwort einer Künstlichen Intelligenz beeinflusst. Deshalb wird in Zukunft sicherlich versucht, die KI schon möglichst früh psychologisch geschickt in die richtige Richtung zu lenken. Dabei könne man sich auch an der Psychotherapie orientieren, findet Pellert.

Er denkt allerdings noch weiter: Seine Idee wäre, Unerwünschtes, wie zum Beispiel verzerrte Vorstellungen über Männer und Frauen oder Persönlichkeitseigenschaften, in den Modellen zu lokalisieren und auszuschalten. Dazu Pellert: "Das wäre nicht die Psychotherapie, sondern mehr die Lobotomie" - also Gehirnchirurgie an der KI.

Anja Braun, SWR, tagesschau, 17.01.2024 06:08 Uhr

Dieses Thema im Programm: Dieser Beitrag lief am Montag, den 15.01.2024 in Wissen aktuell – SWR2 Impuls.