KI-Strategie: Prompting, Referenzieren & Regeln

Der ‚KI-Hype‘ in der Pädagogik neigt sich aus meiner Sicht dem Ende entgegen und schafft Raum für systematischere Reflexionen zur Frage, wie mit großen Sprachmodellen beim Lehren und Lernen umgegangen werden kann. Ich möchte in diesem Blogbeitrag drei Fragen aufwerfen, die ich mir vor allem auch selbst gestellt habe und über die ich mit anderen diskutiert habe. Spoiler vorab: Es gibt auf alle Fragen sehr einfache Antworten. Leider sind diese aus meiner Sicht jedoch nicht zielführend für eine gute Gestaltung von Bildung 😉

Prompting: Wo finde ich Prompts?

Das Schreiben von guten Eingaben für Sprachmodelle und andere KI-Tools (= Prompting) wird immer häufiger als Zukunftskompetenz angepriesen. In der Tat ist es nicht egal, was man z.B. in einen Chat bei ChatGPT eingibt. Denn je besser die Eingabe, desto mehr kann man von der Ausgabe profitieren. Genau deshalb kann die Frage nach guten Prompts aber zu einer ersten zu simplen Antwort verleiten, die man im Internet bereits vielfach findet. Unter Überschriften wie ‚Die 100 besten Prompts für Lehrkräfte!‘ o.ä. werden hier (oft kostenpflichtig) Listen mit Prompts zusammengetragen, die man angeblich nur noch mittels Copy & Paste bei ChatGPT oder einem anderen Tool eingeben muss – und schon erhält man die besten Ergebnisse! Wie absurd das eigentlich ist, merkt man spätestens dann, wenn man die Generierung solcher Prompts als Aufforderung bei ChatGPT eingibt – und dann genau solche Listen als Ergebnis bekommt.

Ich bezeichne diesen Ansatz gerne als ‚Zauberspruch-Prompting‘. Denn solche Sammlungen erwecken den Anschein, als müsste man nur den richtigen Zauberspruch auswendig lernen – und schon könne man KI-Tools bedienen. Das passt gut zu einer gesamtgesellschaftlichen Debatte, die ebenfalls dazu tendiert, ‚KI‘ zu mystifizieren.

Gutes Prompting gelingt für mich stattdessen nicht mittels Copy & Paste, sondern durch Verstehen und Erkunden. Dazu ist es nötig, dass die Funktionsweise der dahinter liegenden Technologie in den Blick genommen und ‚KI‘ auf diese Weise entmystifiziert wird. Mir hilft dabei die Metapher des stochastischen Papageis von Emily Bender unter Berücksichtigung der Weiterentwicklung von Tools wie ChatGPT (= In dem Sprachnmodell sind riesige Datenmengen einprogrammiert und die Software ist darauf trainiert, Strukturen darin zu erkennen. Auf eine Eingabe hin, würfelt die Software, was als Antwort am besten passt. Dabei wird jedes einzelne Element einer Eingabe berücksichtigt – und nicht nur ein begonnener Satz zu einem möglichst logischen Abschluss gebracht).

Wer dieses Grundprinzip versteht, kann Prompting ganz ohne Zaubersprüche für sich erlernen. Es ist dann z.B. sehr logisch, dass Kontext in Prompts bereitgestellt werden sollten und dass Prompts möglichst präzise formuliert werden sollten oder auch dass es oft hilfreich sein kann, Prompts zu verwerfen, wenn sie nicht funktionieren.

Wenn diese Grundlage des Verstehens vorhanden ist, dann können aus meiner Sicht darauf aufbauend durchaus auch beispielhafte Prompts helfen. Denn durch diese kann man gut mit eigenen Erkundungen beginnen. Solche Anstupser sind dann aber etwas anderes als ‚Zaubersprüche‘, die fertige Prompts anpreisen.

Referenzieren: Wie weise ich die Nutzung von KI-Tools aus?

Wenn Menschen im Internet recherchieren und sich mit gefundenen Inhalten in eigenen Texten auseinandersetzen, gilt es üblicherweise als wichtig, die verwendete Quelle anzugeben. Das geschieht oft unter Angabe der URL der verwendeten Website und dem Datums des Abrufs. Diese Referenzierung ist grundsätzlich sinnvoll, weil auf diese Weise überprüft werden kann, was tatsächlich auf dieser Website steht. So würde man auch in einer wissenschaftlichen Arbeit auf eine andere Quelle wie ein Buch oder einen Zeitschriftenartikel verweisen.

Vor diesem Hintergrund scheint es erst einmal sehr schlüssig zu sein, dieses Prinzip des Referenzierens auch auf die Nutzung von KI-Tools zu übertragen. Konkret müsste dann angegeben werden, welchen Prompt man bei welchem KI-Tool wann verwendet hat. Nur: Das wird so nicht funktionieren! Denn da ChatGPT oder andere Tools ihre Antworten ‚würfeln‘, können bei einem Prompt sehr unterschiedliche Antworten dabei herauskommen. Hinzu kommt, dass die eigentlichen Quellen ja die Daten sind, mit denen die Tools gefüttert werden. Und die sind in vielen KI-Tools nicht transparent. Wenn doch, dann würde es sich eher anbieten, diese Quellen direkt anzugeben …

Heißt das dann aber folgerichtig, dass überhaupt keine Referenz auf ChatGPT oder ein anderes verwendetes Tool gemacht werden sollte? Das wäre aus meiner Sicht ebenfalls nicht sinnvoll. Ich gehe stattdessen folgendermaßen vor (und empfehle diesen Weg auch anderen):

Angaben zur Nutzung von KI-Tools sind keine Quellenangabe. Sie können jedoch sehr hilfreich als Methode transparent gemacht werden. Hier kann angegeben werden, mit welchen Werkzeugen man wie und warum gearbeitet hat. Diese Darstellung kann als Anstoß zur Reflexion über das Lernen unter Nutzung von KI-Tools verwendet werden.

Damit es hier jedoch nicht zu Missverständnissen kommt, finde ich es hilfreich, wenn die Form der Darstellung nicht zu sehr einer Quellenangabe ähnelt. Konkret würde ich alles vermeiden, was eine direkte Nachprüfbarkeit (= Etablierung von KI-Tools als Quelle) suggerieren könnte.

(Ob solch eine Darstellung der verwendeten KI-Werkzeuge in ein paar Jahren immer noch als hilfreich erscheint oder ob das eher im aktuellen gesamtgesellschaftlichen Lernprozess zu KI wichtig ist, wird sich zeigen.)

Mehr Einschätzungen zu dieser Frage finden sich in diesem Thread im Fediverse.

Update: Es gibt von der APA eine Empfehlung zur Zitation von ChatGPT , auf die ich freundlicherweise in den Kommentaren aufmerksam gemacht wurde. Danke! Auch hier wird insbesondere eine methodische Darstellung empfohlen. Bei der ‚Quellenangabe‘ im Text wird erkannt, dass es nicht referenzierbar ist, weswegen bei Chats eine Art Referenz zum verwendeten Algorithmus empfohlen wird.

Regeln: Welche Regeln brauchen wir?

Bei Regeln denken viele Menschen zuerst einmal daran, dass etwas verboten wird. In der Tat scheint es insbesondere im schulischen Kontext bei KI sehr häufig darum zu gehen, Regeln festzulegen, um den Einsatz von KI-Tools zu verbieten oder zumindest zu beschränken. Ich schlage stattdessen den gegenteiligen Weg vor (der sehr stark von den „Rules for Tools“ von Christian Spannagel inspiriert ist):

‚Grundsätzlich ist die Nutzung von allen Werkzeugen (und damit auch von KI-Tools) in Lernprozessen erlaubt, aber natürlich niemals Pflicht.‘

Ausnahmen von dieser Regel müssen dann begründet werden. In Verbindung mit der oben dargestellten Transparenz über den Einsatz von KI-Tools ermöglicht diese sehr erlaubnisorientierte Regel, dass neben dem eigentlichen Lernen immer auch Raum für eine Reflexion über die Nutzung oder auch Nicht-Nutzung von KI-Tools ist. Und genau dieser Raum ist in der aktuellen Phase, in der KI ein gesamtgesellschaftlicher Lernprozess ist, aus meiner Sicht sehr wichtig.

Mir ist klar, dass solch eine Regel in vielen Kontexten sehr weitgehend ist. Genau dadurch kann sie aber zu einer sehr erwünschten und nötigen Veränderung der Lernkultur beitragen.

Fazit

Das waren die Fragen, die mich aktuell in Fortbildungsveranstaltungen und beim eigenen Einsatz von KI beschäftigen. Ich freue mich auch von Dir zu lesen, welche Fragen Du Dir stellst und wie Du sie beantwortest.

Das Beitragsbild ist mit Midjourney generiert. Ich wollte eigentlich einen Zauberer, der aus einem Laptop (anstelle eines Zylinders) ein Kaninchen hervor zaubert – aber dieses (leicht abgewandelte) Ergebnis ist so schön verrückt, dass ich es direkt dabei belassen habe.


Beitrag merken & teilen

Hier kannst Du dir den Link zum Beitrag kopieren - beispielsweise um ihn für Dich zu speichern oder mit anderen zu teilen. Wenn Du den Link in den Suchschlitz im Fediverse einfügst, kannst Du den Beitrag von dort aus kommentieren. Die Kommentare erscheinen dann nach Freigabe hier auf der Website.

3 Kommentare

@nele In Bezug auf Transparenz halte es übrigens so mit meinen Studierenden in der Prüfungsform "Lerntagebuch": 1. Kennzeichnung generierter Stellen 2. Angabe des genutzten Prompts und der verwendeten KI 3. Begrenzung auf 20% generierten Content in einer Arbeit 4. Reflexion über den Einsatz des KI Tools. Punkt 2 müsste eigentlich noch erweitert werden um den Kontext der Anfrage. Handreichung (als #OER) siehe hier: https://eldshort.de/9t6cjn

Kommentierung ist via Fediverse möglich.