Die allermeisten künstlichen Intelligenzen sind im Bereich der Personalauswahl noch relativ dumm, sagt Ronald Franke, Geschäftsführer von LINC. Seine Meinung: KI ist immer noch kein Ersatz für echte (menschliche) Fachkompetenz im Recruiting-Bereich. In dem diesem Beitrag gibt er Tipps, worauf HR achten sollte.
Auch wenn Künstliche Intelligenz (KI) das Thema der Stunde ist, generieren leider bei weitem noch nicht alle Angebote, die dieses Label tragen, einen echten Mehrwert. Dies gilt auch für Lösung im HR Management und dabei vor allem bei der Personalauswahl. Daher möchte ich im Folgenden einige kritische Gedanken und Erkenntnisse zum Thema KI im Recruiting mit Ihnen teilen und dadurch zu einem kritischen Umgang mit den entsprechenden Angeboten animieren.
Zunächst einmal ist besondere Vorsicht geboten, wenn Ihnen Instrumente mit angeblich künstlicher Intelligenz angeboten werden, die Ihnen das Vorstellungsgespräch, die Führungskräfteauswahl oder gleich den ganzen Recruiting Prozess abnehmen sollen. Es handelt sich hier um äußerst komplexe, vielschichtige Entscheidungsprozesse, mit denen ungeschulte Menschen in der Regel überfordert sind.
Daher nehmen überall dort, wo im Personalbereich solche Entscheidungen getroffen und komplexe soziale Prozesse erfolgreich umgesetzt werden müssen, Angebote zu, die angeblich unfehlbarer AI-Lösungen propagieren. Die Versprechen der Anbieter klingen dabei verlockend:
- Valide Personalauswahlentscheidungen auf Grundlage einer automatisierten Analyse der Persönlichkeit von Bewerberinnen und Bewerbern
- Vorstellungsgespräche automatisiert durchgeführt von einer künstlichen Intelligenz
- Stimmanalysen, die Ihnen alles Wichtige über die Bewerberinnen und Bewerber in kürzester Zeit verraten
Das Problem: Die allermeisten künstlichen Intelligenzen sind im Bereich der Auswahl leider noch relativ dumm. In der Regel erfüllen sie nicht einmal die Mindestanforderungen an diesen – tatsächlich schwer zu definierenden – Begriff. Intelligenz ist psychologisch definiert als die Fähigkeit, komplexe kognitive Probleme zu lösen. Im Bereich der Mathematik oder Physik können Computerprogramme dies schon lange besser als Menschen. Bei Fragestellungen, in denen zwischenmenschliches Verhalten und unterschiedliche Einflussfaktoren wie zum Beispiel Passung zum Unternehmen, individuelle Motivation, Kommunikationsverhalten oder Authentizität eine Rolle spielen, sind diese Programme aber noch immer sehr fehlbar.
Der Grund ist simpel: Die KI-Instrumente greifen für Ihre Entscheidungen auf Muster und Heuristiken zurück, die vor allem auf Häufigkeitsverteilungen von Daten aus dem Internet beruhen. Im Rahmen von Auswahlprozessen führt dies allerdings sehr schnell zu stereotypen und diskriminierenden Entscheidungen.
Wie genau entstehen KI-basierte Diskriminierung und Fehlurteile in der Personalauswahl?
- Datenverzerrung: KI-Systeme lernen aus den Daten, mit denen sie trainiert werden. Wenn diese Daten historische Vorurteile oder Diskriminierungen enthalten, wird die KI dazu neigen, diese Muster in ihren Entscheidungen zu replizieren. Zum Beispiel, wenn ein Trainingsdatensatz hauptsächlich aus männlichen Bewerbern für technische Rollen besteht, könnte das System dazu neigen, Männer gegenüber Frauen für solche Rollen zu bevorzugen.
- Schlecht definierte Merkmale: Ein Merkmal, das als positiv für eine bestimmte Rolle angesehen wird (zum Beispiel Abschluss einer bestimmten Universität), könnte dazu führen, dass das System Kandidatinnen / Kandidaten bevorzugt, die diesem spezifischen Profil entsprechen, selbst wenn andere Kandidaten genauso gut qualifiziert sind.
- Nicht berücksichtigte Bias-Faktoren: Ein System könnte Kandidaten aufgrund von Faktoren wie Namen, Wohnort oder anderen Informationen, die mit einer bestimmten ethnischen oder sozialen Gruppe in Verbindung stehen, bewerten. Dies kann zu Diskriminierung aufgrund von Ethnie, Geschlecht oder sozialem Hintergrund führen.
- Übergeneralisierung: Wenn die KI zu stark generalisiert, kann sie potenziell gute Kandidaten übersehen, die nicht genau den im Trainingssatz häufigsten Profilen entsprechen.
- Feedback-Schleifen: Wenn Unternehmen KI-gestützte Entscheidungen nicht kritisch hinterfragen und überwachen, können sie unbewusst Diskriminierung verstärken. Zum Beispiel, wenn KI-gestützte Entscheidungen bevorzugt werden und die daraus resultierenden Einstellungen als Trainingsdaten für zukünftige Entscheidungen verwendet werden.
- Gesichtserkennung und Video-Interviews: Einige Unternehmen verwenden KI für Video-Interviews, um nonverbale Hinweise zu bewerten. Diese Systeme können voreingenommen sein, wenn sie auf Daten trainiert werden, die nicht eine Vielzahl von ethnischen Gruppen, Geschlechtern oder Altersgruppen repräsentieren.
Grundsätzlich sind KI-Recruiting Tools Fans vom weißen Mann aus der Oberschicht. Darüber hinaus stufen die von verschiedenen ambitionierten Anbietern angebotenen automatischen Recruiting-Programme Sie aber zum Beispiel auch als intelligenter ein, wenn Sie beim (automatisierten) Vorstellungsgespräch eine Brille tragen oder ein Bücherregal im Hintergrund zu sehen ist. Hier wird deutlich, dass die KI gnadenlos Entscheidungsparameter nutzt, die aus dem „Handbuch für erfolgreiche Diskriminierung“ stammen könnten, sollte es so etwas geben.
Warum gibt es trotzdem immer mehr Angebote für HR-KI Instrumente?
Dafür, dass sich immer mehr Unternehmen momentan noch fragwürdige KI-Lösungen zulegen, gibt es mehrere Gründe:
- da vielen HR-Führungskräften das fachliche Grundlagenwissen für die eingangs beschriebenen Entscheidungsprozesse fehlt und die KI dies ausgleichen soll
- da die angebotenen KI-Tools in der Theorie echte Probleme wie Zeitmangel, Personalknappheit oder Objektivität der Auswahl lösen könnten (wenn sie denn wie versprochen funktionieren würden)
- da die Verheißungen der Technik schon immer verlockend waren und man als modernes Unternehmen am Puls der Zeit bleiben möchte
Was also ist zu tun?
- Wenn Sie Interesse an neuen, KI-basierten Verfahren haben, glauben Sie keinen Heilsversprechen, sondern prüfen Sie diese indem Sie (externe) Experten zu Rate ziehen.
- Um die skizzierten Probleme zu vermeiden, ist es entscheidend, KI-Systeme im Recruitingprozess sorgfältig zu trainieren, zu überwachen, zu validieren und anzupassen. Dies erfordert ein Bewusstsein für mögliche Vorurteile, eine umfassende Überprüfung der Daten und regelmäßige Überprüfungen der Systementscheidungen.
- KI ist kein Ersatz für echte (menschliche) Fachkompetenz im Recruiting-Bereich bezüglich Themen wie Diagnostik, valider Testverfahren und empirischen Gütekriterien
- Setzen Sie neben KI auch vielfach empirisch bestätigte Verfahren wie zum Beispiel Assessment Center, Leistungstests (ja auch Intelligenztest) und wissenschaftlich fundierte Persönlichkeitstests ein.
- Wählen Sie diese Verfahren gewissenhaft aus (auch hier gibt es natürlich schwarze Schafe) und sorgen Sie nach der Auswahl auch für einen professionellen Einsatz der Verfahren durch dafür ausgebildete Profis.
Lesen Sie auch die folgenden Beiträge von Ronald Franke:
- 5 Wahrheiten zur Personalauswahl mit Persönlichkeitstests
- Kompetent mit Kompetenzmodellen arbeiten
- 7 Tipps für die Arbeit mit Anforderungsprofilen im Recruiting
Dr. Ronald Franke ist Gründer und Geschäftsführer der LINC GmbH (Lüneburg Institute for Corporate Learning). Als Psychologe, systemischer Coach und Dozent beschäftigt er sich leidenschaftlich mit der modernen Psychologie und der Frage, mit welchen Erkenntnissen und Lösungen sie dabei helfen kann, einige der bedeutendsten Themen unserer Zeit anzugehen. Die LINC GmbH konzipiert und erstellt digitale Instrumente zur Erfassung, Darstellung und Entwicklung von Persönlichkeit mit dem Ziel, die Brücke zwischen Wissenschaft und Praxis zu schlagen, um einen signifikanten Beitrag zur Professionalisierung im Bereich der Persönlichkeitsentwicklung zu leisten. Foto: ©LINC