Gesichtserkennung bei einer Frau

Künstliche Intelligenz Warum KI nicht frei von Vorurteilen ist

Stand: 05.01.2023 10:19 Uhr

Künstliche Intelligenz galt lange als neutral und vorurteilsfrei. Schließlich teilt sie nicht unsere Geschichte, in der Rassismus und Sexismus gewachsen sind. Doch wir geben unsere Vorurteile einfach an die KI weiter. Von David Beck.

Künstliche Intelligenz galt lange als neutral und vorurteilsfrei. Schließlich teilt sie nicht unsere Geschichte, in der Rassismus und Sexismus gewachsen sind. Doch wir geben unsere Vorurteile einfach an die KI weiter.

Von David Beck, SWR

Bei weißen Männern funktioniert es, bei Schwarzen Frauen nicht: Gesichtserkennung mittels KI - ein mittlerweile klassisches Problem in der KI- Forschung. In ihrem TedX-Talk zeigt Joy Boulamwini die Ergebnisse eines Selbstexperiments: Eine Gesichtserkennungssoftware erkennt ihr Gesicht einfach nicht. Erst als sie sich eine weiße Maske aufsetzt, die auf die grundlegendsten Merkmale eines Gesichts reduziert ist - Mund, Nase, Augen - erkennt die Software ein Gesicht.

Und wenn es funktioniert, dann mehr schlecht als recht. Boulamwini untersuchte 2018 verschiedene Gesichtserkennungssoftwares, unter anderem von IBM und Microsoft. Ergebnis: Die Softwares erkannten zwar alle Gesichter, machten aber bei Frauen und bei nichtweißen Menschen deutlich mehr Fehler, wenn es darum ging, das Geschlecht der Person zu bestimmen. Bei weißen Männern lag die Fehlerquote bei etwa einem einem Prozent, bei Schwarzen Frauen bei 35 Prozent.

Entwicklerteams zu wenig divers

Das Problem ist aber nicht die Technik an sich, sondern von wem sie entwickelt und wie sie trainiert wird. IBM hat das Programm zur Gesichtserkennung mittlerweile eingestellt und Microsoft stark eingeschränkt. Denn es sind überdurchschnittlich viele weiße Männer, die künstliche Intelligenzen entwickeln. Der Frauenanteil in der deutschen IT-Branche lag 2021 bei gerade mal 18 Prozent.

Zwar sind immerhin 25 Prozent der Studierenden in dem Bereich Frauen, doch berichten junge, berufstätige Programmiererinnen oft von einer unangenehmen, männlich dominierten Arbeitsumgebung und geben den Beruf zum Teil wieder auf. Und auch Migrantinnen und Migranten sind unterrepräsentiert. In anderen Ländern ist die Situation zum Teil etwas besser, aber nicht entscheidend.

Andere Gruppen werden vergessen

Das kann dazu führen, dass bestimmte Merkmale nicht beachtet werden, die in den Entwicklerteams nicht vorkommen. Wenn eine Gesichtserkennungssoftware zum Beispiel nur am Entwicklerteam getestet wird und dieses nur aus weißen Männern besteht, dann gibt es keine Garantie, dass die Software auch bei Frauen oder dunkelhäutigen Personen funktioniert.

Laut Ksenia Keplinger, Arbeitsgruppenleiterin am Max-Planck-Institut für Intelligente Systeme, liegt dies nicht unbedingt daran, dass die Entwickler Frauen oder Minderheiten ausschließen wollen, sondern schlicht daran, dass Entwickler einfach nicht daran denken, ihre KIs auch für andere Gruppen zu entwickeln.

Datensätze zu wenig divers

Ein weiterer Grund für Vorurteile in künstlichen Intelligenzen sind laut Keplinger die Datensätze, mit denen sie trainiert werden. Um zum Beispiel eine Gesichtserkennungs-KI zu trainieren, werden ihr Tausende oder Zehntausende Bilder von Gesichtern gezeigt. Daran lernt sie, welche Merkmale ein Gesicht ausmachen. Solche Datensätze können gekauft werden.

Das Problem daran ist, dass die Datensätze in der Regel auch zu wenig divers sind. Weiße Männer sind oft massiv überrepräsentiert. So lernt die KI auch wieder diese Gesichter am besten zu erkennen.

Aus der Vergangenheit lernen ist problematisch

Wird eine KI mit historischen Daten trainiert, dann übernimmt die KI die Vorurteile, die in den historischen Daten stecken. Etwa ein Algorithmus, der über Bewerbungen entscheiden soll, würde mit Daten trainiert werden, welche Bewerbungen in der Vergangenheit erfolgreich waren. So würde er lernen, was dem Unternehmen wichtig ist. Doch fast in jeder Branche wurden in der Vergangenheit Männer bevorzugt. Für die KI wären Männer dann per se die besseren Bewerber. Migrantinnen und Migranten, die benachteiligt wurden, wären die "schlechteren" Bewerber und würden weiter benachteiligt.

Vier-Augen-Prinzip zwischen Mensch und Maschine

Mit besseren Datensätzen und diverseren Entwicklerteams könnte also eine neutralere KI geschaffen werden. Aber eine komplett vorurteilsfreie KI ist nicht möglich, glaubt Keplinger. Da Menschen immer Vorurteile haben werden, werden auch KIs sie immer haben.

Deswegen, sagt Keplinger, dürfen wir einer künstlichen Intelligenz nicht blind vertrauen. Wo möglich, sollten Menschen Ergebnisse von künstlichen Intelligenzen prüfen, eine Art Vier-Augen-Prinzip zwischen Mensch und Maschine.