KI im Bewerbungsprozess: Fair oder diskriminierend?
Wie Algorithmen Bewerber aussortieren — und wer dagegen klagt
Etwa 70 Prozent der großen Unternehmen weltweit setzen bereits KI-gestützte Systeme im Bewerbungsprozess ein — doch immer mehr Klagen und Regulierungsverfahren zeigen, dass diese Algorithmen systematisch bestimmte Gruppen benachteiligen können. Was als Effizienzversprechen begann, wird zunehmend zur rechtlichen und ethischen Grundsatzdebatte.
Kerndaten: Laut Gartner nutzen derzeit rund 68 Prozent der Fortune-500-Unternehmen automatisierte Screening-Tools im Recruiting. Das Marktforschungsinstitut IDC schätzt den globalen Markt für KI-gestützte HR-Software auf über 3,8 Milliarden US-Dollar. Statista zufolge haben in Deutschland bereits 42 Prozent der befragten HR-Verantwortlichen Erfahrungen mit KI-Auswahlsystemen gemacht. Der Digitalverband Bitkom warnt gleichzeitig, dass weniger als 30 Prozent der Unternehmen ihre KI-Modelle regelmäßig auf Diskriminierungsmerkmale überprüfen.
Wie KI-Systeme im Recruiting funktionieren
Bevor man beurteilen kann, ob ein Algorithmus fair oder diskriminierend ist, muss man verstehen, wie er überhaupt arbeitet. KI-gestützte Bewerbungssysteme — in der Fachsprache auch Applicant Tracking Systems (ATS) genannt — scannen eingehende Bewerbungsunterlagen nach vordefinierten Kriterien: Schlüsselwörter, Ausbildungsgrade, Berufserfahrung, aber auch sprachliche Muster und in manchen Fällen sogar Videoanalysen von Vorstellungsgesprächen.
Der Kernmechanismus dahinter ist maschinelles Lernen. Das System wird mit historischen Einstellungsdaten trainiert — also mit den Merkmalen jener Personen, die in der Vergangenheit eingestellt wurden und sich als „erfolgreich" erwiesen haben. Klingt logisch. Das Problem: Wenn in diesen historischen Daten bestimmte Gruppen systematisch unterrepräsentiert waren — Frauen in technischen Berufen, Menschen mit Migrationshintergrund, ältere Bewerberinnen und Bewerber — dann lernt der Algorithmus genau diese Verzerrung als Norm. Er verstärkt sie, statt sie zu korrigieren.
Besonders bekannt wurde in diesem Zusammenhang der Fall eines internen Recruiting-Tools bei Amazon, das jahrelang Lebensläufe von Frauen systematisch schlechter bewertet hatte. Das System hatte aus Daten gelernt, die männlich dominierte Einstellungsentscheidungen der Vergangenheit widerspiegelten. Amazon stellte das Werkzeug schließlich ein — doch das Grundproblem besteht branchenweit fort.
Videoanalyse und Persönlichkeitsscreening: Die unsichtbare Bewertung
Eine besonders umstrittene Kategorie sind KI-Systeme, die Videointerviews automatisiert auswerten. Anbieter wie HireVue oder Pymetrics analysieren dabei Stimmlage, Mimik, Blickverhalten und Wortwahl. Die Software gibt anschließend einen Eignungsscore aus, der über die Weiterleitung der Bewerbung entscheidet — ohne dass ein Mensch das Video je gesehen hat.
Kritiker aus der Wissenschaft und von Bürgerrechtsorganisationen bemängeln mehrere Punkte: Erstens ist nicht belegt, dass Mimik und Stimmlage zuverlässige Prädiktoren für berufliche Leistung sind. Zweitens benachteiligen solche Systeme strukturell Menschen mit Sehbehinderungen, neurologischen Besonderheiten wie Autismus-Spektrum-Störungen oder solche, die die jeweilige Sprache nicht als Muttersprache sprechen. Drittens fehlt es an Transparenz: Bewerberinnen und Bewerber erfahren meist nicht einmal, dass sie von einer KI bewertet wurden.
Die Klagewelle nimmt Fahrt auf
In den USA hat der Gesetzgeber reagiert. Der US-Bundesstaat Illinois war einer der ersten, der mit dem Artificial Intelligence Video Interview Act gesetzliche Mindeststandards für den Einsatz von KI in Bewerbungsgesprächen festlegte. Unternehmen müssen Bewerberinnen und Bewerber darüber informieren, dass KI eingesetzt wird, und dürfen Bewerbungen nur auf Basis dieser Analysen ablehnen, wenn bestimmte Voraussetzungen erfüllt sind.
In New York City ist seit diesem Jahr eine der weltweit ersten Verordnungen in Kraft, die von Unternehmen ein jährliches Bias-Audit ihrer automatisierten Einstellungstools verlangt. Die Ergebnisse müssen öffentlich zugänglich gemacht werden. Mehrere Klagen laufen bereits: Bewerberinnen und Bewerber werfen Unternehmen vor, durch den Einsatz nicht überprüfter KI-Systeme gegen Anti-Diskriminierungsgesetze verstoßen zu haben.
In Europa bildet die KI-Verordnung der Europäischen Union — der sogenannte AI Act — künftig den regulatorischen Rahmen. KI-Systeme im Recruiting fallen unter die Kategorie „hohes Risiko", was strenge Anforderungen an Transparenz, Dokumentation und menschliche Aufsicht bedeutet. Unternehmen, die entsprechende Systeme einsetzen, müssen nachweisen können, dass ihre Modelle regelmäßig auf Diskriminierungsmerkmale geprüft werden. Der Digitalverband Bitkom hat in diesem Zusammenhang gefordert, praxistaugliche Prüfstandards zu entwickeln, die für kleine und mittlere Unternehmen umsetzbar sind.
Wer klagt — und mit welchem Erfolg?
Die Beschwerdeführer sind vielfältig: ältere Arbeitnehmerinnen und Arbeitnehmer, die trotz langer Berufserfahrung systematisch herausgefiltert werden, weil ihr Abschluss aus einer anderen Ära stammt; Mütter, deren Lebensläufe durch Erwerbsunterbrechungen schlechter bewertet werden; Menschen mit nicht-westlichen Namen, deren Bewerbungen in Studien nachweislich schlechter abschneiden. In Deutschland hat die Antidiskriminierungsstelle des Bundes mehrere Verfahren eingeleitet und betont, dass das Allgemeine Gleichbehandlungsgesetz (AGG) auch auf algorithmische Entscheidungen anwendbar ist.
Der Ausgang dieser Verfahren ist noch offen, doch allein die juristische Auseinandersetzung zwingt Unternehmen zunehmend zur Rechenschaft. Datenschutzbehörden in Deutschland und Österreich haben begonnen, gezielte Prüfungen durchzuführen — und in einigen Fällen hohe Bußgelder verhängt, wenn die Verarbeitung personenbezogener Daten durch Algorithmen nicht ausreichend dokumentiert war.
Anbieter im Vergleich: Was bieten die großen Systeme?
| Anbieter | Produkt | Kernfunktion | Bias-Schutzmaßnahmen | Transparenz |
|---|---|---|---|---|
| Workday | Workday Recruiting | CV-Screening, Skill-Matching, Ranking | Optionaler Bias-Report, EEOC-Konformität (USA) | Teilweise erklärbar |
| SAP | SAP SuccessFactors | Bewerber-Tracking, KI-Empfehlungen | Diversity-Dashboards, manuelle Override-Option | Eingeschränkt |
| HireVue | HireVue Assessments | KI-Videoanalyse, Gamification-Tests | Externes Bias-Audit seit Regulierungsdruck | Gering (Black-Box-Modell) |
| Pymetrics | Pymetrics Platform | Neurowissenschaftliche Spiele, Persönlichkeitsmatching | Eigene Fairness-Tests nach Gruppen | Mittel |
| Personio | Personio Recruiting | ATS, automatisierte Absagen, Scoring | Keine publizierten Bias-Audits | Gering |
Der Vergleich zeigt: Selbst bei den marktführenden Anbietern ist der Umgang mit algorithmischer Verzerrung höchst unterschiedlich — und in vielen Fällen nicht ausreichend dokumentiert. Gartner stellt in aktuellen Analysen fest, dass Fairness-Features bei der Kaufentscheidung von HR-Abteilungen bislang eine deutlich geringere Rolle spielen als Faktoren wie Integrationstiefe und Benutzerfreundlichkeit. Das dürfte sich durch den wachsenden Regulierungsdruck ändern.
Das Technologieproblem ist ein Datenproblem
Wer den Ursprung algorithmischer Diskriminierung im Recruiting verstehen will, kommt am Thema Trainingsdaten nicht vorbei. Ein KI-Modell ist immer nur so gut — oder so fair — wie die Daten, mit denen es trainiert wurde. In vielen Branchen sind diese Daten jahrzehntelang in Unternehmen angesammelt worden, die wenig Diversität aufwiesen. Die KI lernt daraus nicht, wen man einstellen sollte, sondern wen man bisher eingestellt hat.
Hinzu kommt das sogenannte Proxy-Problem: Selbst wenn ein Algorithmus sensible Merkmale wie Geschlecht, Herkunft oder Alter explizit ausschließt, kann er über Umwege darauf schließen. Der Studienort kann ein Proxy für soziale Herkunft sein. Die Wahl des Vornamens kann auf ethnische Zugehörigkeit hinweisen. Lücken im Lebenslauf korrelieren häufig mit Elternzeiten — und damit statistisch mit dem Geschlecht. Solche indirekten Diskriminierungsmerkmale sind schwerer zu erkennen und zu entfernen als direkte.
Wie tiefgreifend das Vertrauen in Technologie heute ist, zeigt ein Blick auf andere Digitalbereiche: So wie Sicherheitslücken in weit verbreiteter Software erst durch externen Druck öffentlich werden, bleiben Verzerrungen in KI-Recruiting-Systemen oft so lange unsichtbar, bis jemand klagt oder regulatorisch eingreift. Transparenz entsteht selten freiwillig.
Was Unternehmen und Bewerber jetzt wissen müssen
Für Unternehmen ist die Lage eindeutig: Wer KI im Recruiting einsetzt, trägt die rechtliche Verantwortung für die Entscheidungen dieser Systeme — auch wenn der Algorithmus von einem Drittanbieter stammt. Das bedeutet konkret: Bias-Audits sind keine Kür, sondern mit dem AI Act Pflicht. Ergebnisse müssen dokumentiert, menschliche Kontrolle muss gewährleistet sein.
Für Bewerberinnen und Bewerber gilt: Sie haben in der EU das Recht, zu erfahren, ob und wie automatisierte Entscheidungen in ihrem Verfahren eine Rolle gespielt haben — und sie können eine menschliche Überprüfung verlangen. Dieses Recht aus Artikel 22 der Datenschutz-Grundverordnung (DSGVO) wird in der Praxis jedoch selten kommuniziert und noch seltener tatsächlich eingefordert.
Das Phänomen der algorithmischen Intransparenz beschränkt sich dabei keineswegs auf das Recruiting. Auch in anderen Bereichen der digitalen Infrastruktur zeigt sich, dass große Investitionen in neue Technologien — etwa wenn die Schwarz-Gruppe in Quantencomputer-Technologie investiert — gesellschaftliche Debatten über Kontrolle, Zugang und Fairness auslösen. Technologische Macht konzentriert sich, Aufsichtsmechanismen hinken hinterher.
Der Blick auf Europa: Regulierung als Chance?
Die EU positioniert sich mit dem AI Act als globaler Regulierungsstandard — ähnlich wie die DSGVO zum Maßstab für Datenschutzgesetzgebung wurde. Hochrisiko-KI-Anwendungen im Beschäftigungsbereich müssen künftig CE-ähnliche Konformitätsprüfungen bestehen. Das schafft Bürokratie, aber auch Klarheit.
Ob diese Regulierung tatsächlich Diskriminierung verhindert, hängt von der Qualität der Audits ab. IDC-Analysten weisen darauf hin, dass die Entwicklung unabhängiger Prüfstandards für KI-Fairness noch in den Kinderschuhen steckt. Ein System kann statistisch „fair" sein, wenn es alle Gruppen gleich schlecht behandelt — und trotzdem die ursprüngliche Ungerechtigkeit auf dem Arbeitsmarkt fortschreiben.
In diesem Spannungsfeld bewegen sich auch andere große Technologieentscheidungen der Zeit: Wenn Telekommunikationsanbieter wie im Fall des Milliarden-Deals zwischen Vodafone und Three ihre Marktmacht neu ordnen, oder wenn ältere Infrastruktur wie beim Abschalten des 2G-Standards durch A1 Telekom Austria abgeschaltet wird, dann entstehen immer auch Fragen, wer von diesen Entscheidungen profitiert und wer zurückbleibt. Digitalisierung ist nie neutral.
Auch der Schutz vulnerabler Gruppen vor unkontrollierten digitalen Systemen ist ein übergreifendes gesellschaftliches Thema — ob es sich um den Umgang mit Minderjährigen, die Altersverifizierungen umgehen, oder um Bewerberinnen und Bewerber handelt, die von einem Algorithmus aussortiert werden, ohne es zu wissen.
Fazit: Effizienz darf keine Ausrede für Diskriminierung sein
KI im Bewerbungsprozess ist weder per se fair noch per se diskriminierend. Sie ist ein Werkzeug — und wie jedes Werkzeug hängt ihre Wirkung davon ab, wer sie mit welchen Daten und welcher Kontrolle einsetzt. Die bisherige Praxis zeigt jedoch, dass Unternehmen die gesellschaftliche Dimension dieser Entscheidungen massiv unterschätzt haben.
Die Klagen häufen sich, die Regulierung verschärft sich, und das öffentliche Bewusstsein wächst. Unternehmen, die KI-Screening weiterhin als Black Box betreiben und Bias-Audits als Kostenfaktor betrachten, bewegen sich nicht nur auf rechtlich dünnem Eis — sie riskieren auch, qualifizierte Talente systematisch auszuschließen, nur weil diese nicht dem Muster vergangener Einstellungsentscheidungen entsprechen. Das ist kein Effizienzgewinn. Das ist ein strukturelles Problem.
















