
Die Sorge, dass KI-Recruiting-Tools Bias verstärken, ist berechtigt — es gibt bekannte Fälle, in denen genau das passiert ist. Aber das ist keine Eigenschaft von KI; es ist eine Eigenschaft von schlechten Trainingsdaten und nachlässigem Produktdesign. Richtig umgesetzt, reduziert KI-Screening Bias gegenüber rein menschlicher Review.
Drei Dinge müssen dafür stimmen: Das Modell muss blind gegenüber geschützten Attributen sein, das System muss Erklärungen für jede Entscheidung liefern, und das Team muss vierteljährliche Adverse-Impact-Audits durchführen. Lassen Sie eines davon weg, sind Sie zurück bei menschlich-oder-schlechter.
Die meisten modernen KI-Recruiting-Plattformen unterstützen einen «Blind-Modus», der Name, Foto, Alter, Geschlecht und Standort aus der Screening-Sicht ausblendet. Aktivieren Sie ihn. Pass-through-Bias aus diesen Features ist der größte Failure-Mode für KI-Recruiting.
Vorhersehbar wehren sich Recruiter — sie sind es gewohnt, Namen zu sehen. Halten Sie durch. Die Daten sind eindeutig: Blind-Screening fördert 25–40 % mehr Kandidaten aus unterrepräsentierten Gruppen zutage, ohne die Hire-Qualität zu senken.
Die 4/5-Regel der EEOC ist die regulatorische Untergrenze: Die Pass-Rate einer geschützten Gruppe darf nicht unter 80 % der Rate der bestpassierenden Gruppe fallen. HRBlade führt diese Analyse automatisch für jede Requisition durch; nutzen Sie eine andere Plattform, rechnen Sie es manuell mit R oder Python und einer heruntergeladenen CSV.
Wenn Sie Adverse Impact finden, ist die Antwort nicht, die Latte zu senken — sondern zu verstehen, welche Features die Disparität getrieben haben. Modernes KI-Tooling liefert Erklärbarkeit pro Entscheidung (DSGVO Art. 22 verlangt es). Streichen Sie biased Features, retrainen Sie, auditieren Sie erneut.

