Zum Inhalt springenZur Suche springen

Algorithmische Videoanalysen im Rekrutierungsprozess und mögliche Konsequenzen

Algorithmische Entscheidungsfindung wird im Rekrutierungsprozess immer häufiger eingesetzt. Die Ziele der Implementierung von algorithmischen Entscheidungen im HR-Bereich sind unter anderem das Einsparen von Kosten sowie die Erhöhung der Effizient und Objektivität. In Bezug auf letzteres könnte die algorithmische Entscheidungsfindung objektiver und fairer sein als die menschliche Entscheidungsfindung aufgrund von Vorurteilen und subjektiven Überzeugungen. Allerdings gibt es auch Fälle, in denen die Frage aufkommt, ob die algorithmische Entscheidungsfindung wirklich so objektiv und fair ist wie angenommen. Das Ziel dieser Studie ist es daher, festzustellen, ob der Einsatz von algorithmischer Entscheidungsfindung zu Diskriminierung bestimmter Gruppen von Menschen führt und bestehende Ungleichheiten und Verzerrungen verstärkt. Zu diesem Zweck analysieren wir einen bestehenden Datensatz, aus mehrenden tausenden Videoclips und drei Gewinnalgorithmen. Unsere Analyse zeigt, dass eine Unterrepräsentation von Personengruppen in Bezug auf Geschlecht und Ethnizität im Trainingsdatensatz zu einer Überschätzung und/oder Unterschätzung der Wahrscheinlichkeit, diese Gruppen zu einem Vorstellungsgespräch einzuladen, führt. Darüber hinaus werden bestehende Ungleichheiten im Datensatz durch den Algorithmus repliziert. Die Studie liefert Beweise für mögliche negative Folgen algorithmischer Entscheidungsfindung wie zum Beispiel das Risiko von Diskriminierung und bietet somit wichtige praktische und theoretische Implikationen.

Verantwortlichkeit: