Unternehmen müssen Wertegerüste für eine gerechte, moralisch vertretbare KI-Nutzung errichten, sagt Katja Nagel, Global Organizational Integrity Institute.
Mit der zunehmenden Nutzung von Künstlicher Intelligenz (KI) im Personalwesen wird auch die Frage nach der ethischen Verantwortung zu beantworten sein. Durch KI wird der Mensch in den Hintergrund gerückt, könnte man meinen, aber so ist es nicht: Ihm kommt eine entscheidende Rolle zu.
Künstliche Intelligenz ist längst in Deutschlands Schwerpunktindustrien angelangt, hilft bei vielfältigen Problemstellungen und hält im besten Fall innovative Lösungen bereit. Ob in der Automobilindustrie, im Maschinenbau oder dem Gesundheitswesen – KI-Modelle rücken immer mehr in den Fokus unseres Denkens und Handelns. Ständig wiederkehrende Arbeitsprozesse werden sukzessive von intelligenten Maschinen übernommen und befreien Firmen wie Mitarbeiter zukünftig von Routinearbeiten, auch im Personalwesen.
Klassische HR-Prozesse, wie etwa die Auswahl geeigneter Kandidaten im Recruiting, können immer mehr durch Algorithmen optimiert und zum Teil sogar automatisiert werden. Es bleibt mehr Zeit, über kreative Modelle der Zusammenarbeit und zukünftige Geschäftsideen nachzudenken (auch wenn uns Veränderungen immer erst abschrecken). So weit, so gut und fortschrittlich.
KI macht den Menschen überflüssig?
Nun ist es aber so, dass es auf dem Weg in diese digitale Zukunft an der ein oder anderen Stelle auch zu Rückschlägen und Problemfeldern kommen kann. Insbesondere mit Blick auf die moralische Vertretbarkeit. Vielfach besteht die Annahme, dass KI den Menschen in Teilen überflüssig macht, ihn gänzlich ersetzt. Das mag in ferner Zukunft, je
nach Aufgabengebiet und Reifegrad des KI-Systems, auch zutreffen. Aber sicher nicht in Gänze, der Mensch wird in diesem Zusammenhang immer seine Berechtigung haben.
In der Gegenwart ist es so, dass die KI vom Menschen lernt, von ihm mit Datensätzen gefüttert wird. Sprich: Die KI ist nur so schlau, so moralisch und ethisch, wie sie es – bedingt durch die menschliche Datenzufuhr – sein kann. Je besser und detaillierter also die Daten, deren Bedeutung, Ordnung, Struktur, Dokumentation und Vermögenswert, desto größer ist der mögliche Mehrwert eines KI-Systems (und seine moralische Kompetenz).
Die kühle Logik durchbrechen
Wenn wir heutzutage im Recruiting-Prozess eines KI-nutzenden Unternehmens erleben, dass es etwa zu einer Diskriminierung von Bewerbern kommt – so, wie es sich auch schon konkret in prominenten Fällen dargestellt hat – dann führt bei der Spurensuche der Weg am Menschen nicht vorbei. Für eine gezielte Diskriminierung fehlt der Maschine schlicht das Bewusstsein. Sie zieht ihre ganz eigene, logische Schlussfolgerung, die der menschlichen nicht immer entspricht, aber auf ihr gründet: durch die dem KI-System bereitgestellten Informationen.
Dessen müssen sich die Unternehmen zwingend bewusst sein. Wenn Künstliche Intelligenz also nicht nur technologisch revolutionär sein soll, sondern auch moralisch höchsten Ansprüchen genügen möchte, dann ist für den KI-Einsatz die Etablierung einer Strategie und eines Verhaltenskodex anhand ethischer Prinzipien unabdingbar.
Nutzung von Künstlicher Intelligenz erfordert eine starke Governance
Die Nutzung von Künstlicher Intelligenz ist also gleichsam eine organisatorische Herausforderung, die eine starke Governance erfordert. Sie muss den erforderlichen Integritäts- und Compliance sowie Ordnungs- und Steuerungsrahmen schaffen. Algorithmen nehmen Wertungen vor, und die sollten den Werten einer integren Organisation entsprechen. Dafür muss die gesamte Organisation mitziehen und Vorgaben, relevante Rollen, Verantwortlichkeiten sowie Prozesse klar definiert werden, und natürlich die Vorschläge der KI genauestens auf mögliche ethische Probleme überprüft werden.
Nur so kann es gelingen, langfristig das notwendige Wertegerüst zu erreichen, das wiederum die Basis für eine gerechte, moralisch vertretbare KI-Nutzung bildet. Gleichzeitig bedeutet das, alle Mitarbeiter für das Thema zu sensibilisieren und insbesondere Personaler nachhaltig für den Umgang respektive in der Arbeitsweise von Algorithmen zu schulen.
Je umfassender der Einsatz von KI, desto mehr Aufmerksamkeit braucht der Mensch
Auch wenn die Diskussion um Ethik und KI nicht gänzlich neu ist, es Beiräte und Richtlinien gibt, so stehen wir in der Nutzung und Transparenz doch noch ziemlich am Anfang. Fest steht jedoch: Je größer das Maß der KI-Nutzung im Unternehmen Einzug hält, desto mehr Aufmerksamkeit braucht entsprechend auch der Mensch. Automatisierung hilft Unternehmen, sich von Routineaufgaben zu befreien, ersetzt jedoch nicht Attribute wie Achtsamkeit, Fairness und Wertschätzung gegenüber Kollegen und Mitarbeitern. Wenn dieses Verständnis Einzug hält und die gesamte Organisation nach ethischen Gesichtspunkten denkt und handelt, dann wird sich das ganz sicher auch auf die Qualität des KI-Systems auswirken.
Die ethische Betrachtungsweise von KI-Systemen, ganz gleich wie umfassend ihr Einsatz im Einzelfall auch ausfallen mag, muss zwingend in den Fokus der Unternehmen rücken – vom Großkonzern bis zum Kleinstunternehmen. Dabei geht es nicht darum, die Innovationskraft einzuschränken, sondern moralische Grundsätze sicherzustellen. Das eine schließt das andere nicht aus. Bei aller technischen Entwicklung müssen die Grundwerte immer die Basis bilden und geschützt werden. Und am Ende wird es sich nicht nur vertrauensbildend auf die Kunden, sondern auch nachhaltig auf den Unternehmenswert auswirken.
Dr. Katja Nagel ist Gründerin und Inhaberin der Unternehmensberatung cetacea aus München und berät in dieser Funktion Top-Manager in Krisenzeiten. Sie hat mehr als zwanzig Jahre Erfahrung in Unternehmen und Beratung, insbesondere in den Bereichen Unternehmensentwicklung, Strategie, Marketing und Kommunikation