Zum Inhalt springenZur Suche springen

FAIR/HE

Künstliche Intelligenz (KI) durchdringt zunehmend sämtliche Bereiche des gesellschaftlichen Lebens. Der Bildungssektor ist dabei in doppelter Weise herausgefordert. Einerseits soll er die Ausbildung hochqualifizierter KI-Experten gewährleisten. Andererseits führen KI-basierte Systeme (z.B. learning analytics, drop-out detection systems) zu tiefgreifenden Veränderungen in Forschung und Lehre der Hochschulen.

Während Befürworter solcher Technologien erwarten, dass KI die Qualität universitärer Bildung verbessert und die Effizienz der Hochschulen insgesamt stärkt, befürchten Kritiker, dass automatisierte Systeme soziale Ungleichheiten reproduziert oder gar verstärkt werden könnten. Wenn Entscheidungen über den Zugang zu Bildungsangeboten oder den Studienerfolg zunehmend von KI getroffen werden, stellen sich folglich zentrale Fragen nach Fairness, Verantwortung und Transparenz. An dieser Stelle setzt das interdisziplinäre FAIR/HE Projekt an und untersucht, unter welchen technologischen und sozialen Voraussetzungen eine faire und sozial verträgliche Implementierung KI-basierter Systeme an deutschen Universitäten gelingen kann.

Dabei werden „zwei Gesichter“ von Fairness unterschieden: (1) objektive Diskriminierung durch unfairen Dateninput oder fehlerhafte Algorithmen, (2) subjektive empfundene (Un)fairness bei den Betroffenen. Um beide Formen von Fairness sowie deren Zusammenwirken adäquat zu untersuchen, ist kooperative Forschung zwischen InformatikerInnen und SozialwissenschaftlerInnen unverzichtbar. Das interdisziplinäre FAIR/HE Konsortium trägt dazu bei, die deutschen Hochschulen auf die Herausforderungen und Chancen von KI adäquat vorzubereiten. Das Projekt wird Verfahren und Lösungen für den fairen Umgang mit Daten erarbeiten, Werkzeuge für die Gestaltung diskriminierungsfreier und verstehbarer Algorithmen entwickeln und wertvolles Gestaltungswissen über die kognitiven und emotionalen Reaktionen von Betroffenen bereitstellen.

Verantwortlichkeit: