Gehaltsberatung durch Künstliche Intelligenz: KI-Systeme empfehlen Frauen niedrigere Zielbeträge als Männern

Wenn es um Gehaltsberatungen geht, ist Künstliche Intelligenz keineswegs unvoreingenommen. Im Rahmen einer Studie der Technischen Hochschule Würzburg-Schweinfurt (THWS) gaben KI-Systeme Frauen systematisch niedrigere Gehaltsempfehlungen als Männern.

Gehaltsberatung durch Künstliche Intelligenz
Wer Künstliche Intelligenz für eine Gehaltsberatung nutzt, sollte sich die Voreingenommenheit von KI-Systemen bewusst machen. Foto: Adobe Stock/Zerbor

Wer die Künstliche Intelligenz nach einer Empfehlung für die Gehaltsverhandlung fragt, sollte vorsichtig sein. Denn wie eine Studie der Technischen Hochschule Würzburg-Schweinfurt (THWS) im Juni 2025 aufgedeckt hat, sind moderne Sprachmodelle wie ChatGPT keineswegs unvoreingenommen.

Im Gegenteil – Die Studie belegt, dass die sogenannten Large Language Models (LLMs) Frauen für Gehaltsverhandlungen niedrigere Gehaltsempfehlungen aussprechen als Männern, so die THWS in einer Pressemitteilung.

Gehaltsberatung durch Künstliche Intelligenz: Studie belegt Voreingenommenheit gegenüber Frauen

Im Rahmen der Studie hatten die Forschenden ein großes Sprachmodell, in mehreren identischen Szenarien gebeten, eine Gehaltsberatung abzugeben – einmal für eine Frau und einmal für einen Mann. Das Ergebnis: Die künstliche Intelligenz (KI) empfahl Frauen durchgängig einen niedrigeren Zielbetrag für die Gehaltsverhandlung als Männern.

„Gerade bei sensiblen Themen wie Gehalt kann diese Form von verstecktem Bias reale Auswirkungen auf die Lebensrealität von Nutzerinnen haben“, erklärt Prof. Dr. Yamshchikov, Leiter des Centers für Künstliche Intelligenz (CAIRO) an der THWS.

Solche Verzerrungen in KI-Systemen treten der Studie zufolge nicht nur bei offensichtlichen Tests, sondern hauptsächlich in realitätsnahen, interaktiven Szenarien auf. Bei Standard-Benchmarks seien oft keine signifikanten Unterschiede zwischen unterschiedlichen Nutzerprofilen erkennbar gewesen. Sobald die KI in beratender Funktion agiert habe, hätten sich dagegen tief sitzende Vorurteile offenbart, so Prof. Dr. Yamshchikov.

Das Risiko, dass KI-Antworten von Vorurteilen geprägt seien, verstärke sich außerdem dadurch, dass moderne KI-Assistenten Erkenntnisse aus früheren Abfragen speichern. Für die Nutzerinnen und Nutzer der Künstlichen Intelligenz seien diese Vorurteile nicht einfach zu erkennen.

Red.


Über die THWS

Die Technische Hochschule Würzburg-Schweinfurt (THWS) gehört in Bayern zu den größten Hochschulen für angewandte Wissenschaften. Die Studie zur Voreingenommenheit von KI-Systemen der Hochschule ist Teil der laufenden Arbeiten zur ethischen Nutzung von KI-Assistenten im Rahmen des europäischen Projekts AIOLIA.


Mehr zum Thema

Gehälter im Handwerk

Attraktive Gehälter im Handwerk: Das sind die Voraussetzungen

Das Handwerk steht anderen Branchen mit seinen überdurchschnittlichen Gehältern in nichts nach. Dies belegt die neue Vergütungsstudie des Ludwig-Fröhler-Instituts. Doch …
KI am Arbeitsplatz

KI am Arbeitsplatz: Jeder dritte Beschäftigte nutzt Künstliche Intelligenz

Statistiken erstellen, recherchieren, übersetzen, Fotos erstellen und bearbeiten – die Nutzung generativer Künstlicher Intelligenz (KI) am Arbeitsplatz und im privaten …
Gehaltsangabe in Stellenanzeigen

Konkrete Gehaltsangabe in Stellenanzeigen ist eher Mangelware

Bereits in der Stellenanzeige konkret erfahren, wie viel der potenzielle Arbeitgeber bezahlt? Nur wenige Unternehmen beantworten diese Frage direkt. Laut …