Am Mittwoch, den 19.11., standen in der HeiCADLecture von Prof. Dr. Benno Stein (Bauhaus-Universität Weimar) Large Language Models (LLMs) im Rampenlicht. Zunächst gab Prof. Stein einen Überblick über die Entstehung von LLMs, die ihren Ursprung in der maschinellen Übersetzung haben und erklärte, wie diese KI-Systeme Wahrscheinlichkeiten nutzen, um das nächste Wort in einem Satz vorherzusagen und so Texte zu generieren. Die Textgenerierung gelingt mit Hilfe der aktuellen LLMs bereits so gut, dass es schon heute sehr schwierig ist, menschen- und maschinengeschriebene Texte voneinander zu unterscheiden.
Um herauszufinden, wie gut eine Maschine natürlich scheinende Texte schreiben kann, oder allgemeiner: inwiefern sie menschliche Intelligenz simulieren kann, kann ein sogenannter Turing Test eingesetzt werden. In diesem muss eine Person mit zwei anderen Parteien über einen Computer kommunizieren und entscheiden, ob es sich bei diesen Parteien jeweils um einen Menschen oder eine Maschine handelt. Gelingt es der Person nicht, mit Sicherheit den Computer als solchen zu identifizieren, so gilt der Test als bestanden – die Maschine hat menschliche Kommunikation erfolgreich imitiert. Im Rahmen des Vortrags gab es dazu eine spielerische Live-Demonstration von Dr. Johannes Kiesel, inzwischen beim GESIS – Leibniz-Institut für Sozialwissenschaften in Köln, mit einer eigens entwickelten App. In diese konnte sich ein Teil der Zuhörenden mit ihren Smartphones einloggen und ihre Interpretationen eines Tintenklecksbilds eingeben. Das Publikum konnte die Beschreibungen der Spielenden und die einiger Bots zu den Tintenklecks-Bildern in Echtzeit verfolgen – ohne zu wissen, welche Kommentare von Bots und welche von anderen Anwesenden geschrieben wurden. Am Ende konnten alle Anwesenden ihre Einschätzungen abgeben, welche Kommentare wohl von einem Menschen und welche von einer Maschine geschrieben wurden – mit durchwachsenem Erfolg.
Prof. Stein schätzt, dass es nicht mehr lange dauern wird, bis sich diese schon jetzt schwierige Unterscheidung gar nicht mehr vornehmen lässt. Einen spannenden Ansatz, mit diesem Problem umzugehen, stellte Prof. Dr. Stein in seinem Vortrag vor: Wasserzeichen für LLMs. Die Idee beim sogenannten Watermarking ist, ein LLM so zu modifizieren, dass sein Output subtile Veränderungen aufweist, die für Nutzende nicht erkennbar sind, von den Erstellenden allerdings eindeutig als das Wasserzeichen erkannt werden können. Hierfür gab Prof. Stein Einblick in aktuelle Ansätze seiner Forschungsgruppe. Im Rahmen der Hochschullehre können Wasserzeichen beispielsweise eingesetzt werden, um Studierenden den Einsatz von einem bestimmten zur Verfügung gestellten LLM zu erlauben und die Verwendung anderer, z. B. kommerzieller, LLMs auszuschließen – denn Dozierende können mithilfe des Wasserzeichens prüfen, ob ein Text tatsächlich mit Hilfe des gekennzeichneten LLMs erstellt wurde oder nicht.