Nicht nur “Bias”, sondern auch “Algorithmic Bias” finden sich im Recruitingprozess
Viele neue und innovative HR Tech Firmen beschäftigen sich mit der Frage, wie sie HR Manager datengestützte und vor allem vorurteilsfreie Auswahlprozesse im Recruiting bieten können.
Häufig hören wir davon, dass Bewerber aufgrund eines “Bauchgefühls” des einen oder anderen Recruiters eingestellt werden. Dabei spielen unter anderem persönliche Vorlieben oder auch Vorurteile eines jeden Menschen eine Rolle. In der englischen Sprache redet man hier von dem “bias“, der sich bei HR Entscheidern einschleicht.
Das ist völlig normal, menschlich, und das passiert jedem von uns. Egal, ob wir in HR arbeiten oder nicht. Und es geschieht meistens unbewusst.
Das Dumme dabei ist, dass dieses Bauchgefühl oder auch der “Bias” zu Fehleinstellungen führen kann, weil der Recruiter eventuell den Kandidaten falsch eingeschätzt hat und sich durch seine eigenen Idealvorstellungen hat (ver-)leiten lassen.
Größere, “Diversität” ausstrahlende HR Teams und Entscheider sollen dieses Problem beheben oder zumindest die Folgen und Kosten einer Fehleinstellung eindämmen.
Auch HR Tech versucht, dank verschiedener Technologien, Algorithmen, Gesichtsausdruck-Interpretier-Software, Sprach- und Textanalyse und künstlicher Intelligenz, dieser Schwierigkeit Herr zu werden.
Nun fördern jedoch einige Studien und Untersuchungen zu Tage, was ich schon seit einiger Zeit vermute (Sie wahrscheinlich auch): Algorithmen sind nur so gut wie die Menschen, die sie programmiert haben. Und künstliche Intelligenz mit lernfähigen Algorithmen hängt maßgeblich von den Daten ab, die ihnen Menschen zum Lernen geben.
Sprich: ein “Algorithmic Bias” stellt sich ein, und dieser kann genauso falsche Entscheidungen treffen wie ein Recruiter.
In diesem Beitrag werde ich skizzieren, was es mit “Algorithmic Bias” auf sich hat, ein bekanntes Studienergebnis vorstellen und kurz erörtern, ob HR Tech und künstliche Intelligenz wirklich zu Helfern von HR werden können oder nicht anhand des Beispiels von Video Interviews.
Algorithmic Bias – Definition
Auf Wikipedia wird Algortihmic Bias so definiert:
Algorithmic bias occurs when a computer system behaves in ways that reflects the implicit values of humans involved in that data collection, selection, or use. Algorithmic bias has been identified and critiqued for its impact on search engine results, social media platforms, privacy, and racial profiling. In search results, this bias can create results reflecting racist, sexist, or other social biases, despite the presumed neutrality of the data. The study of algorithmic bias is most concerned with algorithms that reflect “systematic and unfair” discrimination.
An anderer Stelle fand ich dieses vielsagende Zitat:
Algorithms are, in part, our opinions embedded in code.
Sprich: Jedes Ergebnis einer Suche oder auch einer durch Algorithmen getroffenen Auswahl kann nur einen Teil der Wirklichkeit widerspiegeln.
Dies sollte jedem bewusst und klar sein.
M.I.T. Studie: Mangelhafte Gesichtserkennungssoftware
Ein Forscher des M.I.T. (Massachusetts Institute of Technology) stellte zum Beispiel Anfang des Jahres fest, dass Gesichtserkennungssoftware von Microsoft und IBM wesentlich besser in der Lage war, das Geschlecht einer Person zu benennen, wenn das analysierte Gesicht eines weißen Mannes zu sehen war. Dagegen waren die Zuordnungen von dunkelhäutigen Frauen fehlerhaft.
Das scheint vor allem daran zu liegen, dass der lernfähige Algorithmus mit mehrheitlich weißen Männer Bildern trainiert wurde als mit dunkelhäutigen Männern und Frauen.
Hier sei auch erwähnt, dass sich Google im vergangenen Jahr entschuldigen musste, da sein neues Foto-Label Feature Bilder von dunkelhäutigen Menschen automatisch als “Gorillas” kategorisieren wollte…
Gesicht, Sprache, Gestik, Mimik, Keywords und was sonst alles im Recruiting- und Bewerbungsprozess schief gehen kann – im Blickpunkt: Video Bewerbungsgespräche
Die oben dargestellten Studienergebnisse sind natürlich lediglich ein Teil dessen, was ein lernfähiger, aber mangelhaft trainierter Algorithmus anrichten kann. Problematisch finde ich darüber hinaus HR Technologien, die anhand von Gestik, Sprache oder Mimik eines Bewerbers Aussagen zu Charakter, Persönlichkeit, Verhalten, Wechselwilligkeit sowie Leistungsvermögen, etc. machen. Ich sehe dies vor allem in dem Zusammenhang kritisch, wenn beispielsweise ein erster Eindruck des Kandidaten durch ein Video Interview zu einer Einschätzung der Person und seiner Leistungsfähigkeit führt.
Auch wenn neben der Software noch ein oder mehrere Recruiter sich dieses Video ansehen und ihre Beurteilung abgeben, so handelt es sich um eine Momentaufnahme der gefilmten Person.
Und Hand aufs Herz: Wir haben alle mal einen schlechten Tag, oder wir fühlen uns vor der Kamera nicht wohl, vielleicht schwirrte auch gerade eine Mücke durchs Zimmer und hat uns abgelenkt oder was auch immer.
Was ich sagen möchte ist: Letzten Endes entsteht im Bewerberauswahlprozess früher oder später ein halb- oder unbewusster “Bias” – naja, vielleicht auch ein bewusster, die Bewusstseinsstufe obliegt jedem selbst. Dieses menschliche “Bauchgefühl” (oder auch Intuition), das so viele Technologien abschaffen möchten, lässt sich meiner Meinung nach nicht durch Software beheben.
Da kann jede Technologie noch so viel lernen wie sie möchte.
Schließlich kommt es vor allem darauf an, welches “Bauchgefühl” Sie in Ihrem Recruiting- und Auswahlprozess bevorzugen: das von der Maschine erlernte und/oder das Ihrer eigenen HR-Truppe.
Sie haben die Wahl!
Fazit
Erwarten Sie keine Wunder von Algorithmen. Hinterfragen Sie vor allem dann das System, wenn Ihnen eine besimmte HR Technologie den Recruiter-Himmel verspricht.
Natürlich ist die Herausforderung, in der heutigen Zeit massenweise Daten zu verarbeiten, zu kategorisieren, zu analysieren und zu bewerten, enorm hoch. Dazu kommt der Wettbewerbsdruck im immer enger werdenden Bewerbermarkt.
Da sind Softwaresysteme, die eine Vorauswahl anhand von Keywords, Sprache, etc. treffen ein Segen. Vergessen Sie dabei jedoch nicht, dass Ihnen dabei auch sehr viele gute Kandidaten durch die Lappen gehen, weil diese nicht die “richtigen” Keywords verwendet haben oder weil sie nicht so talentiert sind, sich in ihrem Lebenslauf gut zu präsentieren.
Vielleicht ist ja auch mal wieder echtes Netzwerken angesagt: Gehen Sie dorthin, wo Sie Talente treffen können. Sprechen Sie sie an, investieren Sie ein wenig Zeit in “I.R.L” (“In Real Life”) Kontakte. Das macht zudem auch noch Spaß!
Kostenintensive Fehlentscheidungen im Auswahlprozess wird es auch mit daten- und softwaregestützen Technologien geben. Wie im vorherigen Abschnitt bereits geschrieben:
Schließlich kommt es vor allem darauf an, welches “Bauchgefühl” Sie in Ihrem Recruiting- und Auswahlprozess bevorzugen: das von der Maschine erlernte und/oder das Ihrer eigenen HR-Truppe.
Sie haben die Wahl!
Weitere Links zum Thema
- von Felix Wetzel: Five Ways to evaluate AI systems
- im Human Resource Executive: In the Fight against Bias, AI faces Backlash
- im Harvard Business Review: Hiring Algorithms are not neutral
- TED Talk von Joy Buolamwini: How I’m fighting bias in algorithms
- What is algorithmic Bias – on Microsoft’s AI Chatbot TAY