Kaum einem Geschäftsbereich wie dem Human Resource Management brennt diese Frage so sehr unter den Nägeln. Im sehr lesenswerten Artikel „Mensch oder Maschine: Wer trifft bessere Entscheidungen?“ stellt Prof. Dr. Christian Gärtner zu dieser Frage spannende Thesen auf und gibt interessante und fundierte Antworten.
Wir haben ihn deshalb um dieses Interview gebeten.
Zuerst eine ganz allgemeine Frage: Wir finden, dass die Digitalisierung allgemein sehr unkritisch und zuweilen nahezu als Heilsbringer betrachtet wird. Wie sehen Sie das?
Ja und nein: entweder tönt es von Beratern, Wissenschaftlern und sonstigen Experten extrem positiv – oder extrem negativ. Nämlich dann, wenn es um Arbeitsplatzverlust und „verlorene Halbzeiten“ im Digitalisierungswettkampf mit den USA oder China geht. Ich vermisse die Zwischentöne.
Entweder wird Digitalisierung extrem positiv – oder extrem negativ beurteilt. Ich vermisse die Zwischentöne.
Denken Sie nur an die populär gewordene Zahl, dass 47% aller Jobs vernichtet werden. Die dazugehörige Studie von den Oxford-Wissenschaftlern Frey und Osborne basiert übrigens nur auf der Einschätzung von IT-Experten, die während eines Workshops 70 Berufe analysiert haben. Zu welchem Ergebnis wären wohl Sozial- und Geisteswissenschaftler bei der Einschätzung dieser Berufe gekommen? Und: Wie sinnvoll ist es, auf Basis von 70 Berufe die Wegfall-Wahrscheinlichkeit der anderen 632, die in der Studie aufgelistet werden, hochzurechnen?
Das ZEW in Mannheim hat eine andere Analyse vorgelegt und auf einmal fallen nur noch 9-12% der Berufe vollkommen weg. Mit solchen Zahlen erregt man aber keine Aufmerksamkeit. Auch deshalb hört man selten die Zwischentöne.
Außerdem bleibt viel zu oft unklar, was mit „Digitalisierung“ gemeint ist. Die eine „Digitale Transformation“ gibt es gar nicht, weil zu viele unterschiedliche Technologien, Anwendungsfelder, Branchen und Geschäftsmodelle gemeint sein können. Beispielsweise variiert die Relevanz von Technologien wie sozialen Medien, mobiler Kommunikation, Cloud Computing, Blockchain oder Data Analytics, je nachdem ob ein Unternehmen im B2B-Umfeld oder B2C oder C2C-Bereich tätig ist: Physiotherapeuten und Bäcker werden ihr Geschäftsmodell und ihre organisatorischen Abläufe deutlich weniger umstellen müssen, als dies bei Banken, Verlagen oder im Groß- und Einzelhandel der Fall ist. Analysen auf Basis fragwürdiger, weil vager, Bezeichnungen sollte man nicht zu sehr beim Wort nehmen.
Dann sind da noch die Studien, die untersuchen, ob Algorithmen-basierte Personalentscheidungen besser sind als das menschliche Expertenurteil. Sie kommen zu dem Ergebnis, dass meist der Algorithmus dem Expertenurteil überlegen ist. Allerdings berücksichtigen diese Studien weder die sozialpsychologische Komplexität von Personalentscheidungen noch, dass Entscheidungen nicht wie reife Früchte fallen, sondern getroffen werden müssen, also gerade dann gefragt sind, wenn Begründungen oder Daten nicht hinreichend vorhanden sind.
Wie neu sind datenbasierte Matching- und Selektionstechnologien in der Personalauswahl eigentlich?
Es gibt sie schon wesentlich länger, als man vermuten würde. Wenn man es breit definiert, arbeiten auch Selbsttests für Studium- und Berufsanfänger oder Dating-Plattformen als Matching-Tools: Sie bringen Menschen mit Studiengängen, Berufen oder anderen Menschen in „Übereinstimmung“.
Mittlerweile sind Algorithmen nicht nur im Recruiting, sondern auch bei Entscheidungen wie Beförderungen oder Trainingserfolg im Einsatz
Bei der Personalauswahl in Firmen sind datenbasierte Matching- und Selektionstechnologien schon seit über 10 Jahren im Einsatz. Insbesondere bei der Vorauswahl selektieren Matching-Technologien von sogenannten Applicant Tracking Systems potenzielle Kanditen aus. Das geht, weil hier viele einfach strukturierte Daten vorliegen: Wo haben die besten Mitarbeiter studiert und gearbeitet? Welche Qualifikationen aus dem Anforderungsprofil werden erfüllt? Wie schnell wurden vorherige Jobs gewechselt?
Mittlerweile sind Algorithmen nicht nur im Recruiting, sondern auch bei anderen Personalentscheidungen wie zum Beispiel Beförderungen oder Trainingserfolg im Einsatz, auch weil nun unstrukturierte Daten besser erfasst werden können und das Matching nicht mehr nur auch Schlagwörtern, sondern über Wortnetze, Syntax und Informationszusammenhänge läuft.
Will man nicht neuerdings Maschinen sogar Emotionen beibringen?
Die Forschung im Bereich des Affective Computing versucht Maschinen beizubringen, wie sie Emotionen erkennen und darauf adäquat reagieren können. Erste Erfolge gibt es. Die gehen sogar soweit, dass ein neues Problem entsteht: ein allzu sorgloser und vertrauensvoller Umgang mit Apps und Robotern (sog. „overttrust“). Eines wird aber bleiben: freundliche und unfreundliche Gefühlsregungen basieren zum Großteil auf körperlich vermittelter Kommunikation und Empathie. Auf ein Lächeln reagieren wir in der Regel spontan mit einem Lächeln, weil wir die Freude des anderen mitempfinden. Ebenso haben wir alle am eigenen Leib schon gespürt, wie es sich anfühlt, traurig oder glücklich zu sein. Eine Maschine kann all das nur simulieren.
In Ihrem oben genannten Artikel machen Sie die interessante Aussage, dass auch Algorithmen Vorurteile haben. Welche sind dies denn und warum ist das so?
Das ist so zu verstehen: Die vermuteten Zusammenhänge über Ursachen und Wirkungen sind in Algorithmen gegossen und die werden wiederum von Menschen programmiert – Menschen mit Werten, Interessen und auch Vorurteilen. Dass Vorurteile Eingang in Algorithmen finden können, wurde insbesondere für die Google-Suche immer wieder gezeigt – unter anderem von Google-Forschern selbst! Die Google-Suche scheint für Diskriminierung anfällig: weil bei der Suche nach dem Wort „Hand“ größtenteils Bilder von Händen mit heller Hautfarbe angezeigt werden; weil Suchen nach Namen, die afroamerikanisch klingen, häufiger mit Anzeigen verknüpft werden, die einen Eintrag im Vorstrafenregister nahelegen; weil Frauen bei Google weniger Anzeigen für gut bezahlte Jobs mit Führungspositionen eingespielt bekommen als Männer.
Auch selbstlernende Algorithmen, die ihre von Menschen vorgegebenen Regeln anpassen, sind vor Verzer-rungen nicht gefeit.
Insbesondere gibt es das sogenannte Überanpassungsproblem. Das meint, dass sich das Modell zu sehr an die Testdaten angepasst hat, es hat sie quasi „auswendig gelernt“, aber des „Pudels Kern“ nicht erfasst, weshalb neue Daten falsch verarbeitet werden. Es besteht die Gefahr, dass gerade bei kleinen Stichproben zwar die Vorhersage in dieser speziellen Stichprobe gelingt, nicht aber für eine neue Stichprobe. Solche Verzerrungen kann man durch mehr Daten lösen, aber wenn diese nicht vorhanden sind, müssen wieder Menschen eingreifen und prüfen – auf Basis ihrer ganz eigenen Verzerrungen.
Was muss das HR tun, um menschen- und technologiebasierende Entscheidungen ausgewogen zu treffen und Mitarbeitern die Angst zu nehmen, von Maschinen gelenkt zu werden?
Personaler haben sich meist für ihren Beruf entschieden, weil ihnen Zahlen und Algorithmen zu abstrakt sind. Es wird aber kein Weg daran vorbeiführen hier Kompetenzen aufzubauen – denn sonst versteht HR nicht, was datengetriebene und IT-affine Abteilungen oder Beratungen planen und ob dies zum Wohl oder Wehe der Belegschaft ist.
Neben vertieften Kenntnissen in Ökonometrie, Statistik und sozialer Netzwerkanalyse brauchen HR’ler auch ein profundes Verständnis betriebswirtschaftlicher Zusammenhänge, um die Auswirkungen von Entscheidungen zu verstehen.
Deshalb bieten wir von der Quadriga Hochschule in Berlin Personalern einen MBA an, in dem auch Themen wie Finance & Controlling, Supply Chain Management oder Strategisches Management auf dem Programm stehen.
Zudem braucht es Zeit, um herauszufinden, welche Hebel wirklich Wertschöpfungstreiber sind und welche Entscheidungen keine oder nur geringe Wirkung entfalten. Dazu gehört beispielsweise im Bereich von Matching-Technologien, dass die Wortnetze, Syntax und Informationsdatenbanken aktuell und nah am Geschäftsjargon gehalten werden. Nur dann können Metzger auch als Fleischereifachverkäufern erkannt oder Data Scientists von Data Strategists unterschieden werden und nur dann wird klar, dass es etwas anderes ist, „Geschäftsführer zu sein“ oder „an den Geschäftsführer zu berichten“, obwohl beide Male das Schlagwort „Geschäftsführer“ auftaucht.
Das alles verursacht hohe Aufwände: von der Rekrutierung und Schulung über die Führung von gemischten Teams bis hin zu den Rückschlägen und notwendigen Anpassungen, die bei Tests und Experimenten auftreten werden. Aber der Vorsprung an Wissen über das Zusammenspiel von Technologie und Mensch kann den entscheidenden Wettbewerbsvorteil ausmachen und den Aufwand leicht wieder einspielen.
Was glauben Sie, mit welchen Veränderungen sich Mitarbeiter, das HR und Unternehmen schon in naher Zukunft konfrontiert sehen?
Zwei Technologien stehen jetzt schon vor der Tür und werden wohl noch breiter eingesetzt werden: Kontextsensitive Informationen auf Basis adaptiv-lernender Maschinen und Robotic Process Automation.
Vereinfacht verspricht Ersteres, die Informationen dort zu präsentieren, wo sie Entscheider gerade benötigen oder gar schon die Lösung zu haben, bevor das Problem überhaupt aufgetaucht ist. Zum Beispiel zu wissen, wann welche Mitarbeiter demotiviert sind, krank werden oder sich eine Schwangerschaft anbahnt und dies Managern bei Entscheidungen über Teamzusammensetzungen, Einstellungen oder Beförderungen anzuzeigen. HR wird – gestützt auf sein Wissen über sozialpsychologische, betriebswirtschaftliche, statistische und rechtliche Zusammenhänge – hier ein Wörtchen mitreden müssen und sagen, was geht und was zu weit geht.
Robotic Process Automation, also die Automatisierung via Software-Roboter und nicht physische Roboter, ist heute schon in manchen Shared Service Centern im Einsatz. Robotic Process Automation ist da sinnvoll, wo viele manuelle und wiederkehrende Eingaben in IT-Systeme nötig sind, weil hier schnell Effizienzgewinne durch die automatisierte Datenverarbeitung winken.
Beide Technologien bedeuten aber auch, noch mehr in Datensicherheit zu investieren. Angefangen von systemseitigen Sicherheitsvorkehrungen (Stichwort „Software-Defined Security“) bis hin zur Sensibilisierung der Belegschaft (Stichwort „Social Engineering“). Wer was wissen kann und darf, muss heute diskutiert werden, um damit morgen die People Analytics Software entsprechend konfigurieren zu können.
Jetzt verlangen wir beinahe Unmögliches von Ihnen. Wagen Sie einen Blick in die Zukunft, wie dominant und umfassend Algorithmen im HRM in 10 Jahren sein könnten und wer dann die besseren Entscheidungen trifft?
Da haben Sie recht: das ist unmöglich und gerade deshalb treffe ich nun die Entscheidung, darüber ein paar Spekulationen anzustellen. Dieser Wille zur Entscheidung, auch zur willkürlichen, geht Maschinen übrigens ab.
Es bleibt offen, inwiefern die Talente des 21. Jahrhunderts gerne hätten, dass Entscheidungen über Menschen von Menschen getroffen werden.
Ich schätze, dass wir auch in 10 Jahren noch eine ziemliche Heterogenität sehen werden: angefangen von Organisationen, die sich bewusst gegen den Einsatz von Algorithmen entschieden haben, über solche, die sie in Bereichen mit Routinetätigkeiten einsetzen bis hin zu Unternehmen, die voll auf selbstlernende Algorithmen in Kombination mit Robotern setzen. So oder so, werden alle versuchen ihren Ansatz als Vorteil gegenüber der Konkurrenz zu verkaufen.
Ich glaube aber nicht, dass die Masse das gern hätte – weder als Mitarbeiter noch als Personaler oder Manager, die über die Einführung solcher Technologien entscheiden.
Vielen Dank für dieses sehr aufschlussreiche und interessante Interview, Herr Professor Gärtner
Christian Gärtner
ist Professor an der Quadriga Hochschule Berlin. Er beschäftigt sich vor allem mit Fragen der Transformation von Teams, Organisationen, Netzwerken und Geschäftsmodellen.
Seine Maxime: “Hey man of science with your perfect rules of measure / Can you improve this place with the data that you gather?” (Bad Religion)
0 Kommentare zu “Mensch oder Maschine: Wer trifft bessere Entscheidungen?”