Willkommen im Zeitalter der Bewerbungs-Algorithmen

Derek Mobley: ein erfahrener IT-Fachmann, schwarzer US-Amerikaner, über 40 – und frustriert. Nach über 100 gescheiterten Bewerbungen zieht er einen Schlussstrich: Nicht etwa, weil ihm die Motivation fehlt, sondern weil er einen Verdacht hat – KI könnte ihn systematisch aussortieren.

Die Software, die in allen Fällen im Einsatz war: ein KI-gestütztes Bewerbungstool von Workday, einem der größten Anbieter für HR-Software weltweit. Minuten nach dem Absenden eine Absage? Für Mobley kein Einzelfall, sondern Teil eines Musters. Jetzt klagt er – und der Fall hat das Potenzial, das globale Personalwesen zu erschüttern.

Wenn Algorithmen Diskriminierung lernen

Was wie ein Einzelfall wirkt, ist längst System: Immer mehr Unternehmen nutzen Künstliche Intelligenz, um Bewerbungen vorzuselektieren. Effizient, kostensparend – aber auch brandgefährlich. Denn wenn die KI aus alten Daten lernt, übernimmt sie auch alte Vorurteile. Mobleys Klage, der sich inzwischen viele weitere Bewerber angeschlossen haben, stützt sich genau darauf: systematische Altersdiskriminierung.

Das Gericht ließ die Klage als Sammelklage zu – ein Desaster für Workday, das jährlich Millionen Bewerbungen bearbeitet. Wenn sich der Verdacht bestätigt, könnten Tausende von Fällen in den USA betroffen sein – und das Modell global ins Wanken bringen. Denn auch in Europa werden solche Tools längst eingesetzt.

KI im Bewerbungsprozess: Fluch oder Fortschritt?

Dabei muss KI im Personalwesen nicht grundsätzlich schlecht sein. Expert:innen betonen: Richtig eingesetzt, kann KI helfen, Talente zu entdecken, die sonst übersehen würden – gerade bei nicht-linearen Lebensläufen. Auch Weiterbildungsbedarf oder versteckte Fähigkeiten im bestehenden Team lassen sich durch KI besser analysieren.

HR-Berater Andreas Günzel sieht das ähnlich: KI könne den Recruitingprozess schneller und gezielter machen – aber niemals die alleinige Entscheidungsinstanz sein. Die menschliche Komponente bleibe unverzichtbar. Doch genau da liegt das Problem: In der Praxis wird die KI-Empfehlung oft nicht hinterfragt, sondern blind übernommen.

Von Amazon bis Workday: Wenn KI alte Fehler neu auflegt

Ein warnendes Beispiel lieferte bereits Amazon: Die hauseigene KI bewertete Frauen als ungeeignet – weil das Trainingsmaterial fast nur aus Männer-Bewerbungen bestand. Die Folge: Die Software verwarf automatisch Lebensläufe mit weiblichen Vornamen. Amazon stampfte das Projekt ein – doch der Schaden war da.

Dasselbe Risiko droht nun mit Workday. Wenn Trainingsdaten unausgewogen oder voreingenommen sind, vererbt sich Diskriminierung in die KI. Und wenn diese dann massenhaft Bewerber:innen aussiebt, weil sie zu alt, zu weiblich, zu „abweichend“ erscheinen – dann wird aus einem Hilfsmittel ein automatisierter Filter für systematische Benachteiligung.

KI kann Türen öffnen – oder systematisch schließen

Wer Entscheidungsprozesse an Algorithmen auslagert, trägt trotzdem die Verantwortung. Und wenn Unternehmen mit millionenfach eingesetzter Software nicht sicherstellen können, dass keine Bewerber:innen pauschal aussortiert werden, gehört ihnen nicht das Vertrauen – sondern ein Gerichtsverfahren.

Zum Newsletter anmelden

und immer aktuell im Datenschutz informiert.