Katharina Zweig hat mit ‚Weiß die KI, dass sie nichts weiß?‘ ein weiteres Buch im Kontext der aktuellen KI-Debatte geschrieben. Dieses Mal geht es sehr anschaulich um große Sprachmodelle wie ChatGPT und Co.
Wie auch schon bei ihren vorherigen Büchern mag ich es bei Katharina Zweig sehr gerne, dass sie von Technologie sehr begeistert ist, aber es dabei immer und zugleich schafft, nicht in einen unreflektierten Hype abzurutschen. Große Sprachmodelle sind für sie Technik, die erklärt werden kann und keine Magie!
Ich habe ihr Buch mit pädagogischer Brille gelesen. Sie schreibt aus ihrer Perspektive der (Sozio)-Informatik. Das passte aus meiner Sicht ganz wunderbar. Denn ich fand ihre Erklärungen durchweg sehr anschaulich und gut verständlich. Insbesondere im zweiten Teil geht es sehr detailliert in den ‚Maschinenraum der Sprachmodelle‘.
Für meinen Kontext fand ich dann vor allem den dritten Teil sehr relevant. Hier stellt Katharina Zweig dar, was Sprachmodelle können und was eben auch nicht. Vieles hatte ich für mich ähnlich entwickelt (und habe mich sehr gefreut, aus Informatik-Perspektive bestätigt zu werden.).
Wichtig fand ich hier vor allem diese Aspekte:
- KI-Sprachmodelle haben keinen Weltbezug und können ihren Output nicht, wie wir Menschen, erklären. Sie geben Output auf Basis von dem, was als Prompt gestellt wird und was in ihrer Datenbasis steckt.
- KI-Sprachmodelle eignen sich nicht als Antwortmaschine. Ich kann sie dann verwenden, um eine Antwort zu erhalten, wenn ich die Antwort eigentlich kenne, aber sie mir gerade nicht einfällt oder ich sie einfach noch einmal anders/ besser formuliert haben will. (‚Wie war das nochmal?‘)
- KI-Sprachmodelle können keine Werturteile fällen, also z.B nicht bewerten, ob bestimmte Qualitätsdimensionen in einem Text eingehalten werden oder nicht. Sie können lediglich etwas mit einem Text assoziieren. (Zum Beispiel: langer Text = viele Inhalte, oder: viele Fremdwörter = akademisch geprägter Text). Darum hilft es viel mehr, z.B. in Interaktion mit KI-Sprachmodellen Qualitätsdimensionen zu entwickeln oder sich ein mögliches Raster für eine Bewertung vorschlagen zu lassen. Die eigentliche Bewertung können uns KI-Sprachmodelle aber nicht abnehmen.
- Wir Menschen sind so entwickelt, dass wir Sinn in die Äußerungen eines Gegenübers projizieren. (= Theory of Mind). Das ist super sinnvoll, um menschliche Verständigung produktiv zu gestalten. In der Interaktion mit KI-Sprachmodellen kann uns das zum Teil auf die Füße fallen. Denn der Output dieser Maschinen ist per se eine Konfabulation (= der besser passende Begriff anstelle von Halluzination, denn es handelt sich ja nicht um eine Wahrnehmungsstörung (= Halluzination), sondern Sprache wird nicht so erzeugt, wie wir es annehmen würden (= Konfabulation).)
Sehr anschaulich und hilfreich fand ich außerdem diese Vorschläge und Darstellungen:
- Um KI-Sprachmodelle nicht zu vermenschlichen, aber zugleich die veränderte technologischen Möglichkeiten anzuerkennen, lässt sich die Tilde als Symbol nutzen. Ich hatte bisher häufiger versucht, technische Begriffe zu verwenden oder Anführungszeichen zu setzen. Die Tilde scheint mir passender, um sprachlich ausdrücken zu können, mit was wir bei dieser Technologie konfrontiert sind. Zum Beispiel könnte die Tilde wie folgt genutzt werden: „ChatGPT ~antwortet immer sehr freundlich.“ (= Die Tilde vor dem Verb ‚antworten‘ macht deutlich, dass ChatGPT eben nicht so antwortet, wie ein Mensch es tun würde, aber wir es trotzdem so empfinden).
- Wir tendieren dazu (wahrscheinlich gerade als Pädagog*innen), sehr wohlwollend auf KI-Sprachmodelle zu blicken, ähnlich wie wir das bei Lernenden tun würden. Wenn ein Schüler zum Beispiel in einer Einmaleins-Abfrage fast alle Ergebnisse richtig weiß, aber dann ein- oder zweimal eben doch daneben liegt, dann würden wir wahrscheinlich denken: „Okay, das hat er verstanden und gut gelernt. Bei den wenigen Ausnahmen war er eben kurz abgelenkt.“ Genau diese Schlussfolgerung sollten wir bei KI-Sprachmodellen aber nicht ziehen. Denn wenn hier ein falscher Output kommt, dann ist eine ‚kurze Ablenkung‘ eben keine rationale Erklärung und es hilft dann nicht, einfach ein bisschen geduldiger zu sein. Vielmehr müssen wir anerkennen, dass es offensichtlich einen Fehler im System gibt, den wir angehen müssen. (Diese Darstellung erklärt für mich übrigens auch sehr gut, warum der Blick auf KI von technischen Menschen sich so oft so stark von dem von nicht-technischen Menschen unterscheidet. Ich habe hier schon oft erlebt, wie aus solchen unterschiedlichen Perspektiven sehr aneinander vorbei geredet wurde).
- Für mich selbst weiternutzen und auch Kolleg*innen in meinen Workshops empfehlen, werde ich schließlich insbesondere den Rat von Katharina Zweig, KI-Sprachmodelle immer zunächst so einfach wie möglich zu erklären. Das bedeutet konkret: Wenn ein (sehr faszinierender) Output eines KI-Sprachmodells grundsätzlich damit erklärt werden kann, dass erkannte Muster in menschlichen Texten mithilfe von Wahrscheinlichkeitsberechnungen reproduziert werden, dann gibt es keinen Grund, irgend etwas anderes (eine wirkliche künstliche Intelligenz? ein entwickeltes Bewusstsein der Maschine? …) dahinter zu vermuten.
Um die gesamtgesellschaftliche Einordnung von KI-Technologie geht es in diesem Buch nur am Rande. Dazu findet man mehr in zwei anderen Büchern von Katharina Zweig (‚Die KI war’s‘ und ‚ein Algorithmus hat kein Taktgefühl‘.)
Mein Fazit: Sehr große Leseempfehlung für Lernende und Lehrende, die eine kritisch-konstruktive Nutzung von KI-Technologie in der Bildung anstreben und dazu einen entmystifizierten Blick auf die Funktionsweise der Technologie und den damit verbundenen Möglichkeiten suchen.
Beitrag weiternutzen und teilen
Dieser Beitrag steht unter der Lizenz CC BY 4.0 und kann somit gerne offen weitergenutzt und geteilt werden. Hier kannst du dir den Beitragslink und/oder den Lizenzhinweis kopieren. Wenn du den Beitragslink in das Suchfeld im Fediverse (z.B. bei Mastodon) eingibst, wird er dir dort angezeigt und du kannst ihn kommentieren.
