Arbeitsrecht HR-Know-how Human Resource Management

KI im HR: Hier lauern die 10 grössten Gefahren und Risiken

digitalisierung

Die künstliche Intelligenz und die Digitalisierung machen auch im HR grosse Fortschritte und erhöhen dessen Leistungsfähigkeit in vielen Bereichen. Doch oft fehlt die kritische Distanz und die Risiken und Gefahren werden in der manchmal euphorischen Stimmung der Möglichkeiten oft nicht beachtet. Dem möchten wir mit diesem Beitrag entgegenwirken.

Wenn selbst hochrangige Experten und Forscher vor den Risiken der KI eindringlich warnen, muss dies aufhorchen lassen. Zu diesen warnenden Stimmen gehören keine Technologieskeptiker, sondern unter anderen Forscher der Universitäten Stanford, Yale, Oxford und Tohoku sowie Entwickler von Microsoft und Google!

1. KI ist zu oft eine Black Box

Die Gefahr nimmt zu, dass die KI Resultate generiert und Analysen durchführt, die nicht mehr nachvollzogen werden können, weil Algorithmen zu komplex und die Datenquellen zu unübersichtlich werden. Das Problem der „Black Boxes“, der undurchsichtigen Computeralgorithmen, haben bei vielen Forschern nicht ohne Grund eine hohe Priorität. Der Effizienzdruck einerseits und die Faszination, Entscheidungen an maschinelle Intelligenz abzudelegieren, erhöhen diese Gefahr. So steigt das Risiko von Fehlentscheidungen und Fehlanalysen, deren Gründe man gar nicht mehr eruieren kann. Daraus folgt, dass die Handlungsträgerschaft von Mitarbeitenden bei wichtigen Personalentscheidungen nicht eingeschränkt oder dieser gar entzogen werden darf.

2. Es fehlt die Transparenz

Es sind heutzutage KI-Systeme im Einsatz, von denen Mitarbeitende oft nicht einmal wissen, dass sie Teil von deren Aktivitäten sind. KI ist auf hohe Mengen an Daten angewiesen, doch welche dies sind, woher sie stammen, wie sie verarbeitet werden, sind wichtige Fragen, die nicht beantwortet und oft auch nicht gestellt werden. Menschen müssen sich stets im Klaren darüber sein, wann sie mit einer KI-Lösung interagieren und/oder ihre persönlichen Daten von einer KI-Lösung verarbeitet werden. Die Information muss den Zweck, die Zielsetzung und die Logik der KI-Lösung sowie die Quelle sämtlicher Daten beinhalten. Auch in Forschungsprojekten mangelt es an Transparenz, zu wissen in welche Richtung die KI geht und wo, beispielsweise aus ethischen Gründen, Grenzen zu setzen oder Reglementierungen notwendig sind.

3. Gefahr von Fehlentscheidungen

Die Analysen und Entscheidungen, die an KI-Systeme abdelegiert werden, werden einerseits immer komplexer, während andererseits nicht wenige Systeme noch unausgereift und fehleranfällig sind, selbst relativ einfache Anwendungen wie Vorselektionen von Bewerbern. Es kommen bereits jetzt falsche Auswertungen zustande, die z.B. zum Schluss kommen, Männer wären produktiver, weil die Datenbasis falsch eingegrenzt oder gewichtet wurde. “In aller Regel sind es sehr geringe Prozentwerte einer menschlichen Eigenschaft, die die KI-Systeme erklären können“”, sagt beispielsweise Uwe Kanning, Psychologieprofessor an der Hochschule Osnabrück, zur Eignungsdiagnostik von KI-Systemen.

4. Datenschutz und Privatsphäre

Es werden bereits heute Algorithmen bei Video-Kandidateninterviews angewendet, welche die Reaktionen der Kandidaten automatisch auswerten. Rückschlüsse aus Gesichtsform und Mimik oder auf sexuelle Präferenzen sind nur einige wenige, aber typische Beispiele, die stark in die Privatsphäre eingreifen. Kontrollen, was mit solchen Daten geschieht und oder wo sie überall eingesetzt werden, fehlen und Entscheidungsprozesse entgleiten immer stärker unserer Kontrolle. Es gibt durchaus berechtigte Forderungen, die Verfügungsgewalt von Personendaten jenen zu geben, von denen sie stammen und denen sie letztlich gehören, nämlich den Mitarbeitenden.

Auch Netzwerkanalysen, die das Verhalten in sozialen Netzwerken analysieren, sind bereits im Einsatz und geben Auskunft, was Kandidaten posten, wie sich ihr Netzwerk zusammensetzt, wo sie wie aktiv sind und wer sie wofür bewertet. Dann die Sprachdiagnostik damit zu verknüpfen, ist naheliegend. Auch diese Entwicklung ist risikoreich und fehleranfällig: Kann es eine KI korrekt gewichten und einordnen, wenn beispielsweise ein Vater für einen Schulvortrag seiner Tochter Quellenmaterial zum Marxismus recherchiert?

5. Datenqualität und Diskriminierung

Die Leistungsfähigkeit eines KI-Systems steht und fällt nebst der Programmierung und Algorithmen-Qualität mit der Datenqualität der Datenquellen. Mit erhöhter Datenmenge nimmt die Leistungsfähigkeit zu, womit auch hier das Risiko fragwürdiger oder unzuverlässiger Datenquellen steigt, die beispielsweise veraltet sein oder zu fehlerhaften Korrelationen führen können. Durch KI können Vorurteile und Diskriminierungen auch in anderen Bereichen signifikant zunehmen, wie dies bei Amazon mit der Gender-Diskriminierung der Fall war. Die Zunahme der “Shit-in Shit out”-Risiken ist gross. Mehr zu wichtigen Fragen der Datenqualität erfahren Sie in diesem Beitrag.

6. Unklarheit zu wichtigen W-Fragen

KI-Systeme arbeiten wie erwähnt mit grossen Datenmengen aus verschiedenen Quellen. Entscheidende Fragen können aber beispielsweise gegenüber Mitarbeitenden oft nicht oder nur ungenügend genau beantwortet werden: Welche Daten sind dies? Woher kommen sie? Wie werden sie verarbeitet? Wie aktuell und zuverlässig sind sie? In welchen Bereichen werden damit welche Schlüsse gezogen? Wo und wann werden sie von Menschen überprüft? Wissen Betroffene, welche Daten von ihnen mit welchen Resultaten verwendet werden? Der #EthikbeiratHRTech bringt es auf den Punkt: Wir brauchen nicht nur Analytics of the People, sondern vor allem Analytics for the People! Es muss auch sichergestellt werden, dass KI-Systeme stets in Gesamtlösungen eingebunden werden, die letztverantwortlich von Menschen gesteuert werden und welche mit den Unternehmenswerten und ethischen Grundsätzen kompatibel sind.

7. Die Big Brother-Gefahren

Die beinahe unbegrenzten Möglichkeiten bieten vor allem auch im Rahmen von People Analytics Risiken des Missbrauchs und der Überwachung. Die Anzahl von Tipp-Anschlägen einer Assistentin zu messen, ist noch harmlos im Vergleich zur Messung der Produktivität jedes einzelnen Leistungsdetails in Verhalten, Kommunikation und Tätigkeiten oder dem Aufzeigen von Kündigungswahrscheinlichkeiten. Kontrollinstanzen, die dies verhindern, fehlen auch hier nur zu oft. Man weiss es aus der Politik und es gilt auch im technologischen Bereich: Macht korrumpiert. Dies gilt bei konsequenter Betrachtungsweise auch für den Umgang mit Ergebnissen und das Übertragen und Speichern von Daten. Für KI-Lösungen sollten keine Daten erhoben und verwendet werden dürfen, welche der willentlichen Steuerung der betroffenen Mitarbeiter entzogen sind und welche diese nicht einsehen können oder dürfen.

8. Verantwortung und Rechenschaftspflicht

Es fehlen auch Mechanismen und Regelwerke, um die Verantwortung und Rechenschaftspflicht von KI-Systemen und deren Ergebnisse und Analysen sicherzustellen. Dabei spielen die Qualität. Überprüfbarkeit, Auditierbarkeit und Korrektheit von Algorithmen und Daten eine entscheidende Rolle, insbesondere in sensiblen und die Persönlichkeitssphäre betreffenden Anwendungen. Darüber hinaus sollten Rechtsfragen geklärt werden, beispielsweise ob ein Hersteller bei Fehlprogrammierungen zur Rechenschaft gezogen werden kann oder nicht. In diesen wichtigen Bereichen wird zu wenig oder nichts getan.

9. Es fehlen ethische Richtlinien

Es herrscht weitgehend Unklarheit über die Grenzen der Anwendungsbereiche. KI kann bei Jobinterviews beispielsweise auf Basis der Stimme, Sprache oder auch Mimik Persönlichkeitsanalysen vornehmen. Z. B. wird ein Videointerview aufgenommen und dann über ein neuronales Netzwerk ausgewertet, bei dem beispielsweise ein Stirnrunzeln als Ausdruck eines negativen Gefühls oder eine bestimmte Stimmlage als begeistert oder gleichgültig interpretiert werden kann. Am Rande: Ein Unternehmen in Deutschland hat solche Anwendungen wieder vom Markt genommen, da sie viel zu fehleranfällig und unzuverlässig waren.

10. Entwicklungsstand der KI-Systeme

KI-Systeme leisten teilweise schon Erstaunliches und auch die Einsatzbereiche sind äusserst vielseitig geworden. Nur gibt es eben auch Anwendungsgebiete, die noch lange nicht die Zuverlässigkeit und das Leistungsniveau haben, die sie eigentlich haben sollten, beispielsweise im Chatbot-Bereich, in der Sprachdiagnostik und bei anderen komplexen Analysen wie der Analyse des Mitarbeiterverhaltens. Auch hier sind kritische Qualitätskontrollen notwendig, um solche Mängel frühzeitig genug zu erkennen und auch die Grenzen der KI kritischer zu beurteilen.

Man muss sich auch bewusst sein, dass KI-Systeme auf heutigem Stand sehr oft nicht mehr als simulierte Intelligenz sind und meistens auch nur auf bestimmte, eng begrenzte Anwendungsgebiete (Bewerber-Vorselektionen oder Standard-Antworten von Chatbots beispielsweise) beschränkt sind. Echte Maschinenintelligenz und KI mit breit gefächertem Denkvermögen bestehen noch nicht und davon ist man auch noch weit entfernt.

Es geht nicht darum, KI zu dämonisieren

Wir möchten aber klar festhalten, dass wir uns bewusst sind, dass die KI im Human Resource Management – wie übrigens auch anderswo – auch zahlreiche positive und begrüssenswerte Chancen und Verbesserungspotenziale bietet. Objektivere und vorurteilslosere Entscheidungen, präzisere Auswertungen, Wegfall von Routinetätigkeiten, Effizienzsteigerungen und Fehlerreduktionen, ganzheitlichere Entscheidungsgrundlagen, neue Erkenntnisse über Zusammenhänge und Korrelationen und Verschlankung der Prozesse sind nur einige Beispiele von vielen. Weitere bietet dieser  informative Beitrag “KI in Human Resources”, der vor allem die Chancen beleuchtet.

Personalmanagement Buch
Handbuch zum Personalmanagement Neuauflage 2021

 

Der PRAXIUM Verlag ist der Fachverlag zum Personalmanagement und hrmbooks.ch die HR-Online-Fachbuchhandlung mit einem redaktionell recherchierten und praxisorientierten Fachinformations-Angebot. Einige Blog-Beiträge sind auch Auszüge daraus oder Beiträge seiner Autoren.

0 Kommentare zu “KI im HR: Hier lauern die 10 grössten Gefahren und Risiken

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Die neuen TOP 10 der HR-BücherMehr Informationen hier
+ +