de gb
Suchfunktion Lupe
OMC HR Trends - Personalauswahl

Der Einsatz von Künstlicher Intelligenz (KI) im Personalwesen schreitet unaufhaltsam voran. Zeit also, sich verstärkt und intensiv mit den Risiken und Nebenwirkungen dieses Prozesses im Hinblick auf Diskriminierung zu befassen.

In den Mittelpunkt der Diskussion rückt immer mehr die ethische und juristische Bewertung von automatisiert zu treffenden Entscheidungen, sprich Algorithmen. Damit einher geht das Risiko der Diskriminierung ganzer Bevölkerungsgruppen durch deren Einsatz. Spätestens wenn, wie bereits in Polen und Österreich der Fall, Arbeitslose nach Algorithmen katalogisiert und in soziale Schubladen einsortiert werden, scheint die zumindest die ethische Grenze gefühlt überschritten. Und, fassen wir uns ruhig mal selbst an die Nase: welcher Rekruter regt sich inzwischen nicht auf, wenn er ein soziales Netzwerk nicht auch nach Alterskriterien durchsuchen kann? Was, wenn Jobanzeigen ethnien-, alters- und geschlechterspezifisch nur bestimmten Empfängergruppen zur Verfügung gestellt werden? Wie verhält es sich mit Erkennungssoftware, die Emotionen in den Gesichtern der Stellenbewerber erfasst und analysiert? Verführerisch! Selbstlernende neuronale Netze werden gar unter Umständen künftig ihr Eigenleben entwickeln und ihre Urteile nach eigenen, dynamischen und nicht mehr statischen Algorithmen fällen.

Aus juristischer Sicht schützt z.B. das AGG vor Diskriminierung, die DSGVO vor nicht notwendigen Auswahlmethoden. Die juristischen Akteure (Anwälte, Richter) werden jedoch zunehmend mit der Beweisführung in Klageverfahren überfordert, ganz zu schweigen davon, dass die Betroffenen in der Regel ihre Diskriminierung noch nicht einmal bemerken und auch gar nicht die erforderliche Fachkompetenz dazu besitzen können, demzufolge also auch nicht klagen… Für sie ist in der Regel gar nicht nachvollziehbar, welche Grundprinzipien in einem Algorithmus hinterlegt sind.

Häufig wird die Legitimität des Einsatzes von Algorithmen mit Effizienzvorteilen bei der Informationsbeschaffung begründet. Dem gegenüber stehen allerdings die damit verbundenen Risiken, wie Einschränkungen in der Persönlichkeitsentfaltung, generelle Ungleichbehandlung und deren Verstärkung sowie die Reduzierung von Menschen auf bloße Mittel.

Auftraggeber, Softwareentwickler und Personalverantwortliche tragen also gemeinsam eine hohe Verantwortung beim Vorantreiben dieser neuen Technologien. Insbesondere Personalabteilungen sind daher gut beraten, sich über die Diskriminierungsrisiken beim Einsatz von KI Klarheit zu verschaffen. Zunehmend werden transparent publizierte, ethische Prinzipien, die dem Einsatz einer KI zugrunde liegen, zum Wettbewerbsvorteil bei stark nachgefragten Bewerbern. Wenn ein Kandidat verstehen kann, auf welcher Basis die KI ihre Entscheidung trifft und warum, dann wird er auch eine Absage eher akzeptieren können.

Neben Nachbesserungen in datenschutzrechtlicher Sicht bis hin zum Verbot bestimmter algorithmen- und datenbasierter Differenzierungen für Entscheidungen mit hohem Diskriminierungsrisiko ist die Stärkung der Rolle der Antidiskriminierungsstellen unabdingbar, die im Sinne des Subsidiaritätsprinzips dem kollektiven Rechtsschutz dienen.

Vertiefend sei Interessierten Personalexperten wärmstens die Ende 2019 erschienene Studie der Antidiskriminierungsstelle des Bundes zu diesem Thema empfohlen, die sich auch mit Klassifizierungen wie Lookalike Audiences, Working Moms oder Soccer Dads befasst (s.u.).

Literaturhinweis: Carsten Orwat, Diskriminierungsrisiken durch Verwendung von Algorithmen, Antidiskriminierungsstelle des Bundes; zum kostenlosen Download

 

Claudia Michalski

Autor:

Carsten Spiegel
Regionalleiter Ost
Senior Berater

OMC-Newsletter

Regelmäßig senden wir Ihnen aktuelle Beiträge und Einladungen zu unseren Veranstaltungen. Bitte melden Sie sich für diesen Newsletter-Service an. 

 

Newsletter abonnieren