Drei Ansätze für mehr Fairness: So gestaltet die Telekom ihr KI-Recruiting

| | , ,

Kann KI-Recruiting tatsächlich für mehr Objektivität sorgen? Die Praxis zeigt: Nicht immer. Ayse Semiz-Ewald, Leiterin Diversity Management bei der Deutschen Telekom AG, erläutert drei Strategien, mit denen das Unternehmen den Auswahlprozess fairer gestaltet.

Name, Alter, Karriereweg, Wohnort – wenn wir uns für einen Job bewerben, geben wir viele Details über uns an. Wir zeigen, wer wir sind, was uns beruflich ausmacht und was wir an Kenntnissen für die jeweilige offene Position mitbringen. Dadurch wird ein Bild von uns erschaffen, bei der Person, die unsere Bewerbungsunterlagen erhält. Aber was, wenn das letztendlich gar keine Person ist?

Künstliche Intelligenz (KI) ist nicht erst seit ChatGPT auf dem Vormarsch. Seit Jahren schon setzen immer mehr Unternehmen auf Algorithmen, um Prozesse zu erleichtern und Entscheidungswege abzukürzen. Ein Trend, der sich auch im Personalwesen beobachten lässt, vor allem bei jüngeren Generationen: Denn drei von vier Personalverantwortlichen zwischen 18 und 34 Jahren nutzen bereits KI (Studie Personio, 2023).

Auf den ersten Blick scheinen vor allem drei Faktoren maßgebliche Entscheidungsfelder zu sein: Die Möglichkeit, Kosten einzusparen, die Steigerung von Effizienz und die Verbesserung der User Experience. Aus eigener Erfahrung kann ich aber sagen, dass ein weiterer Grund mindestens genauso hohe Relevanz hat: Die Hoffnung, dass KI mehr Objektivität in die Auswahlverfahren bringt. Denn Vorurteile begleiten uns ständig und kommen somit auch in Bewerbungsverfahren vor. Sie können nicht nur Karrieren verbauen, sondern in Zeiten von Fachkräftemangel unserer Gesellschaft schaden.

- Anzeige -
Banner English Edition HR JOURNAL

Warum wir an Schubladen nicht vorbeikommen

Foto Frau arbeitet am Laptop
Twenty20/@vegasworld

Vorurteile und Stereotype sind Teil unserer menschlichen Natur. Das verleitet uns leider öfter als wir denken zu unfairen Entscheidungen. Denn um überhaupt all die Millionen Informationen, die wir sekündlich erhalten, verarbeiten zu können, muss unser Gehirn zwangsläufig auf “schubladenartige” Denkmuster und teils vorbelastete Entscheidungsabkürzungen zurückgreifen.

KI ist da anders – sie hat die Kapazität, Millionen an Informationen aufzunehmen und sie alle gleichermaßen zu verarbeiten. Anhand der Muster erkennt sie dann die logischste Entscheidung und kann diese vermeintlich objektiv treffen. Ideal also, um bei der Verarbeitung von hunderten an Bewerbungen als logische Entscheidungskomponente mitzuwirken.

Aber ist es wirklich so einfach, wie wir uns das Ganze vorstellen? Worauf muss bei der Implementierung von KI-Tools im Personalbereich geachtet werden?

KI kann auch diskriminieren – nur anders

So gestaltet die Telekom ihr KI-Recruiting
Envato/Prototype-Drop

Wie bereits erwähnt, trainiert KI mit vorhandenen Daten, erkennt darin Muster und zieht daraus logische Schlüsse. Das Problem: Die Daten sind geprägt von subjektiven Denkmustern und vorherigen Entscheidungsprozessen, die einen gewaltigen Einfluss auf die spätere Objektivität des Tools haben. Es nützt beispielsweise nichts, wenn das Tool zwar lernt, den Namen und die Herkunft bei einer Bewerbung zu ignorieren, um möglichst neutral zu entscheiden, später jedoch Männer für die offene Stelle bevorzugt, da es gelernt hat, dass bisher eher Männer für diesen Job rekrutiert wurden.

Eine Studie der UC Berkeley School of Information unterstützt diese Annahme: Sie zeigt, dass KI-gestützte Rekrutierungstools oft Bewerbende bevorzugen, die konventionelle Bildungs- und Karrierewege sowie Positionen bei großen Technologieunternehmen vorweisen. Dies führt zu einer Verstärkung bestehender Ungleichheiten im Rekrutierungsprozess und widerspricht dem Ziel, eine vielfältige und inklusive Arbeitsumgebung zu schaffen (UC Berkeley School of Information, 2023).

Was bedeutet das also für Unternehmen, die einerseits ihre Recruiting-Prozesse automatisieren wollen, gleichzeitig aber sicherstellen möchten, dass sie fair und divers rekrutieren?

Maßnahmen für mehr Fairness im KI-Recruiting bei der Telekom

Foto Chatbot
Twenty20/@thanmano

Wir selbst haben bei der Telekom schon einiges aus dem Umgang mit KI-Recruiting gelernt. Dabei setzen wir auf drei Bereiche, um mehr Fairness in den Prozess zu etablieren. Hier arbeiten wir eng mit unserem IT-Team zusammen. Verantwortlich für die HR IT-Projekte ist mein Kollege Norman Nowak. Gemeinsam haben wir drei konkrete Projekte herausgesucht:

1. AskT ist ein zentraler Punkt unserer Strategie.

Dieser HR-Chatbot beantwortet auf Basis einer umfangreichen HR-Wissensdatenbank HR-bezogene Fragen. Unsere Vision für AskT ist es, als HR-Concierge zu fungieren und hyper-personalisierte Fragen zu beantworten, wie beispielsweise die Anzahl der verbleibenden Urlaubstage oder Fragen zu offenen Positionen. Darüber hinaus kann AskT auch Fragen zur Rolle beantworten und somit die Erfahrung der Kandidaten verbessern. Auch vereinfacht und automatisiert das Tool administrative HR-Prozesse maßgeblich. Hier ist besonders wichtig, dass AskT diskriminierungsfreie Sprache nutzt und so inklusiv wie möglich kommuniziert.

2. Ein weiterer Schwerpunkt ist ein Recruiting AI.

Das Tool zielt darauf ab, Kandidaten vorurteilsfrei mit passenden Stellen zu verknüpfen und Kandidatenvorschläge aus der internen Mitarbeiterfähigkeitsdatenbank zu generieren. Dies hilft nicht nur bei der Auswahl der besten Kandidaten, sondern fördert auch die Chancengleichheit im Bewerbungsprozess. So kann man beispielsweise sicherstellen, dass auch Menschen, die nicht das gleiche Profil wie der Hiring Manager haben, eine Chance im Prozess bekommen und so den berühmten „Mini-Me-Bias“ vermeiden.

3. Coaching AI

Im Bereich Coaching AI testen wir derzeit eine Pilotversion, die es Managern ermöglicht, Interviews oder schwierige Gespräche mit Mitarbeitern zu simulieren. Dies dient der Vorbereitung und Verbesserung der Kommunikationsfähigkeiten der Führungskräfte, um inklusive Führung zu fördern und sie für eigene Biases zu sensibilisieren.

Für Norman und mich steht fest: AI im HR-Bereich kann dazu beitragen, Vorurteile zu überwinden. Menschen haben Vorurteile – und je nach dem Grad ihrer Sensibilisierung sind sie sich dieser mehr oder weniger bewusst. AI-Vorschläge können helfen, diese Vorurteile zu überwinden, indem sie objektive Kandidatenvorschläge oder Rankings erstellen. Letztlich muss die Entscheidung zwar immer noch persönlich getroffen werden. Aber AI kann helfen, eine breitere und fairere Auswahl zu relativ niedrigen Kosten zu ermöglichen.

Es bleibt 50/50

KI hilft beim Recruiting-Prozess, keine Frage. Unser Ziel ist es, Entscheidungen so objektiv und fair wie möglich zu treffen. Dabei begrüßen wir die Hilfe von KI. Dennoch sollten wir sie eher als Enabler verstehen, der uns zwar unterstützt. Niemals aber als Entscheidungsträger am Ende des Bewerbungstages. Das haben wir auch im letzten Jahr in unserem KI-Manifest festgehalten: Personalentscheidungen treffen bei uns am Ende immer Menschen – keine KI.

Lesen Sie auch die folgenden Beiträge:

Foto Ayse Semiz-Ewald

Ayse Semiz-Ewald leitet das Diversity Management bei der Deutschen Telekom AG. Seit 2021 ist die Psychologin zusätzlich als Karriere-Coach aktiv und gründete 2023 das Start-Up JobMagnet Karrierecoaching. Ayse Semiz-Ewald ist auf der Business Punk Watchlist 2024 und Teil der T³ Community der Deutschen Telekom, einem ausgewählten Kreis von Führungskräften, die die Zukunft des Konzerns gestalten. Foto: J. Dohrmann

Vorheriger Beitrag

HR im Jahr 2024 (1): „Spagat zwischen Recruiting, Bindung und Personalabbau“

KI im Coaching: Auf die richtige Balance achten

Folgender Beitrag