Zum Inhalt springenZur Suche springen

Der Einsatz Künstlicher Intelligenz bei Umsatzprognosen: Die Rolle von Prognoseerstellung, Genauigkeit und Erklärbarkeit

Steigende Datenverfügbarkeit erlaubt die Erstellung von Umsatzprognosen mittels Künstlicher Intelligenz (KI). Diese Methoden zeichnen sich durch hohe Genauigkeit aus, sind aber auch Black-Boxes insofern, als ihre Prognosen nicht erklärbar, nicht nachvollziehbar sind. Anwender stehen vor dem Dilemma, Prognosen vertrauen zu müssen, die zwar sehr genau, oft aber völlig intransparent sind. Es wird argumentiert, dass sich die Akzeptanz KI-basierter Prognosen über die Leistungsfähigkeit ergibt: treffen die Prognosen zu, werden sie von den Anwendern akzeptiert. Diese Sicht wird vor allem von Praktikern in Frage gestellt. Letzterer Umstand spiegelt sich z.B. auch in einem (noch) sehr begrenzten Einsatz von KI-basierten Prognosetools im Controlling wider. Diese Situation wirft mehrere Fragen auf: Erzeugt Prognosegenauigkeit tatsächlich Akzeptanz von KI-basierten Prognosen im Controlling? Gibt es so etwas wie ein Vertrauenshandicap in Bezug auf die Quelle einer Prognose, d.h. haben von Menschen erstellte Prognosen, unabhängig von ihrer Prognosegüte, einen Vertrauensvorsprung? Erhöhen Erklärungen, die erläutern, wie ein KI-basiertes Prognosetool funktioniert bzw. wie eine bestimmte Prognose zustande kam, die Akzeptanz und tatsächliche Verwendung von Prognosen? Unsere experimentelle Studie wird untersuchen, wie Praktiker mit Umsatzprognosen aus unterschiedlichen Quellen – menschliche vs. künstliche Intelligenz – umgehen und ob ergänzende Faktoren, wie eben Prognosegenauigkeit und Erklärungen zur Prognose, die tatsächliche Verwendung dieser Prognosen beeinflussen.

Verantwortlichkeit: