In meiner pädagogischen Praxis bin ich sehr konstruktivistisch geprägt. Gutes Lernen sehe ich in diesem Sinne weniger als einen Prozess der Wissensvermittlung, sondern mehr als eine Konstruktion von Wissen durch die Lernenden. Spannend finde ich in diesem Kontext dann die Frage, wie solch ein konstruktivistisches Lernen unter Nutzung von Technologie und hier insbesondere von generativen KI-Sprachmodellen entwickelt und gestaltet werden kann.
In diesem Blogbeitrag möchte ich dazu den Ansatz des so genannten Modellierens reflektieren, den ich in drei Varianten in meinem Lernen praktisch ausprobiert und als sehr hilfreich erlebt habe.
Was meint „Modellieren“?
Im Ansatz des Modellierens (oder auch der Modellbildung) geht man davon aus, dass sich in Interaktion mit der Welt mentale Modelle im Kopf entwickeln – und diese dann immer weiter verfeinert werden.
Hier ist ein Beispiel zur Verdeutlichung:
Mein mentales Modell vom Frühling könnte zum Beispiel umfassen, dass es heller, wärmer und grüner wird. Wenn ich nun (in meiner Interaktion mit der Welt) eine Allergie gegen bestimmte Pollen im Frühling entwickle, werde ich das zu meinem mentalen Modell des Frühlings hinzufügen.
Gutes Lernen kann in diesem Zusammenhang nun so gestaltet werden, dass ich mir die mentalen Modelle in meinem Kopf gezielt bewusst mache, reflektiere und sie dann auf dieser Basis erweitern, verändern oder auch verwerfen kann. Um das zu erreichen, hilft der Prozess des Modellierens.
Modellieren bedeutet: Ich externalisiere ein bestimmtes mentales Modell aus meinem Kopf, wodurch es mir bewusster wird – und arbeite dann daran weiter. Im obigen Beispiel des mentalen Modells zum Frühling könnte ich zunächst alles aufschreiben, was mir zum Frühling in den Sinn kommt und diese Notizen dann clustern und systematisieren.
Bei dieser Modellierung kann Technologie eine zentrale Rolle spielen. Insbesondere kann sie in Form so genannter Denkwerkzeuge (= Mindtools) unterstützen.
Zur Einordnung ist hier wichtig: Solche Mindtools sind nicht lehrende Tools, also digitale Werkzeuge, die Lernenden Wissen vermitteln. Vielmehr sind es Lerntools: Lernende lernen dadurch, dass sie ihre mentalen Modelle in Interaktion mit der Technologie zu einer Abbildung bringen und dann weiter bearbeiten. (Es ist also eher so, dass die Lernenden dem digitalen Werkzeug etwas beibringen – nicht anders herum.)
Dieser Gedanke wurde maßgeblich bereits Anfang der 90er Jahre von David H. Jonassen entwickelt. Generative KI-Sprachmodelle in heutiger Form hatte er damals allerdings noch nicht im Blick. In seinem Buch ‚Modeling with Technology‘ geht er aber durchaus schon auf ‚Expertensysteme‘ wie Chatbots ein. Wie aber lässt sich dieser Ansatz auf generative KI-Technologie übertragen bzw. ist das überhaupt sinnvoll?
Lassen sich generative KI-Sprachmodelle zur Modellierung nutzen?
Für den Prozess des Modellierens erscheinen generative KI-Sprachmodelle auf den ersten Blick denkbar ungeeignet. Denn sie sind grundsätzlich so gestaltet, dass sie für die Nutzenden etwas generieren oder im pädagogischen Kontext den Lernenden etwas erklären. Der Lernprozess des Modellierens sollte aber ja, wie oben beschrieben, genau umgekehrt ablaufen: Die Lernenden sollten die Technologie als Denkwerkzeuge nutzen, denen sie etwas erklären und so zu einer Modellierung kommen.
Um das zu erreichen, müssen wir also eine kontra-intuitive Nutzung der Technologie anstreben: Nicht als Vereinfachungs- und Automatisierungstools, sondern als Denkwerkzeug. Konkreter formuliert ist also ein Weg gesucht, wie sich mentale Modelle durch Interaktion mit KI-Sprachmodellen erstens externalisieren und zweitens bearbeiten lassen.
Lassen sich mentale Modelle mit KI-Sprachmodellen externalisieren?
Ich habe die Externalisierung mentaler Modelle mithilfe von KI-Sprachmodellen vor allem auf die Art und Weise versucht, dass ich sie unterstützend bei einer Systematisierung und Zusammenfassung eines wahrgenommenen ‚Chaos in meinem Kopf‘ einsetzte.
Dabei ging ich wie folgt vor:
Wenn ich beispielsweise mein mentales Modell von „Konstruktivismus“ externalisieren wollte, dann konnte ich in ein Sprachmodell per Audio alles spontan und unsortiert einsprechen, was mir dazu in den Sinn kam. Danach konnte ich nach einer Strukturierung, Clusterung oder Systematisierung fragen – und erhielt dazu dann einen entsprechenden Output.
Dieses Vorgehen scheint erst einmal sehr nützlich – aber nur solange man allein vom gewünschten Output her denkt. Wenn man vom Lernen im Sinn von Modellieren ausgeht, dann ist dieses Vorgehen sogar schädlich. Denn ich lagere in diesem Fall mein Lernen an das KI-Sprachmodell aus, weil ich eben nicht selbst den Prozess der Externalisierung meines mentalen Modells gestalte, sondern eine (zwar meist gut funktionierende, aber eben nicht lernförderliche) Abkürzung nehme. Oft droht zudem auch die Übernahme stochastischer Oberflächlichkeit, die eigentlich gar nicht Teil meines mentalen Modells war. Denn KI-Sprachmodelle ‚plappern‘ gerne und wir als Menschen nehmen den KI-generierten Output gerne an, weil er oft erst einmal sehr schlau klingt.
(Anders ordne ich diese Möglichkeit zur Systematisierung, Clusterung und Zusammenfassung durch KI-Sprachnmodelle übrigens bei kollaborativen Lernprozessen ein. Hier kann genau diese beschriebene Abkürzung aus meiner Sicht hilfreich sein, um als Gruppe zu einer gemeinsamen Ausgangsbasis zum Weiterarbeiten zu kommen.)
Lassen sich mentale Modelle mit KI-Sprachmodellen bearbeiten?
Während ich wie oben beschrieben bei der Externalisierung mentaler Modelle im Prozess der Modellierung bei generativer KI-Technologie eher skeptisch bin, halte ich eine Bearbeitung und Weiterentwicklung von bereits externalisierten mentalen Modellen für sehr zielführend. Man muss sich dann also in einem ersten Schritt jeweils gut überlegen, wie man ein bestimmtes Modell besser ohne KI-Technologie externalisiert, also in welche Form man es bringt, sodass dann eine Bearbeitung mit KI-Sprachmodellen möglichst gut funktioniert. Das ist aus meiner Sicht dann der Fall, wenn das KI-Sprachmodell als erweiternder, bereichernder Resonanzraum genutzt wird.
Ich habe in diesem Sinne mit drei Varianten experimentiert, die ich im Folgenden vorstelle:
Variante 1: Mindmaps (und ihre Erweiterung)
Die erste Variante ist der Klassiker für die Externalisierung eines mentalen Modells – und wahrscheinlich auch die bekannteste Form. Es handelt sich um Mindmaps oder auch Concept Maps: In die Mitte wird die Bezeichnung des mentalen Modells eingetragen – und drumherum dann alles, was einem zu diesem Begriff einfällt. Mit diesem als Mindmap externalisierten mentalen Modell lässt sich dann zur Erweiterung und Bearbeitung ein KI-Sprachmodell nutzen.
Ich habe dieses Vorgehen ausprobiert, um für mich zum Thema des mobilen Lernens weiter zu lernen. Dazu habe ich diese Mindmap aufgezeichnet und auf diese Weise mein (sehr dürftiges) mentales Modell zu diesem Thema externalisiert:

Die Interaktion mit dem KI-Sprachmodell habe ich dann so gestaltet, dass ich zunächst ein Foto der Mindmap geteilt und um eine Zusammenstellung in Textform gebeten habe. Anschließend konnte ich nacheinander alle Bereiche aufrufen und jeweils um Ergänzung, Widerspruch oder Fragen bitten. Den Output, den ich daraufhin von dem KI-Sprachmodell erhielt, konnte ich direkt an mein mentales Modell im Kopf anfügen – und ihn dazu auch in die externalisierte Mindmap einzeichnen. Das hier war am Ende mein Ergebnis (= das überarbeitete mentale Modell):

Das gesamte Experiment habe ich hier ausführlich beschrieben. Ich halte dieses Vorgehen für die wahrscheinlich einfachste und zugleich sehr wirkungsvolle Art der Modellierung mit KI-Sprachmodellen.
Variante 2: Storytelling (und Konzepthinterfragung)
In der zweiten Variante habe ich ein mentales Modell aus meinem Kopf als Geschichte externalisiert – also die Technik des Storytelling genutzt. Mein Beispiel war hier das Konzept der proaktiven Zusammenarbeit im Kontext von KI. Ich habe dieses Konzept hier ausführlich beschrieben.
Meine Geschichte war – orientiert am klassischen Storytelling – die Geschichte von drei Kolleg*innen, die immer gut zusammengearbeitet haben, bis plötzlich KI-Modelle auf den Markt kamen und zunehmend Misstrauen in die Zusammenarbeit einfloss. Um wieder zu einer vertrauensvollen Zusammenarbeit zurückzufinden, haben sie beschlossen, immer direkt transparent zu machen, ob und wenn ja wie KI genutzt wurde – und zwar schon bevor die Frage danach gestellt wird. Das klappte ganz wunderbar, und die drei fanden nicht nur zu vertrauensvoller Zusammenarbeit zurück, sondern lernten auch den Umgang mit KI-Modellen immer besser, weil sie gemeinsam dazu reflektieren konnten. So war dann also alles war wieder gut. 🙂
Diese Geschichte ließ sich schnell und einfach per Audio an ein KI-Sprachmodell weitergeben. Wichtig war hier: Ich habe mir zuvor die Geschichte bewusst überlegt – und nicht einfach irgendetwas eingeplappert. Es ging also im ersten Schritt um eine gezielte Externalisierung des mentalen Modells der proaktiven Transparenz durch Storytelling.
In Interaktion mit dem KI-Sprachmodell habe ich dann zunächst darstellen lassen, welches mentale Modell hier wohl dargestellt wird. Das hatte den Zweck eines Gegenchecks, ob meine Externalisierung funktioniert hatte. Nachdem das gut klappte, fragte ich das KI-Sprachmodell nacheinander nach drei alternativen Geschichten mit einem dann negativen Ende. Damit wollte ich mein mentales Modell auf die Probe stellen, um es so weiterentwickeln zu können.
Diese drei Geschichten erhielt ich:
Aus diesen Geschichten konnte ich dann die folgenden Weiterentwicklungen meines mentalen Modells zu proaktiver Transparenz ableiten:
- Das Konzept muss rechtzeitig kommen. Sonst kann es für Vertrauen schon zu spät sein.
- Transparenz reicht nicht. Es muss auch eine Befähigung bzw. eine Ermächtigung aller Beteiligten erreicht werden.
- KI ist nicht nur einfach ein Werkzeug, sondern es muss auch Raum sein, über die ethischen Implikationen zu reflektieren.
Insgesamt finde ich, dass die Weiterentwicklung meines mentalen Modells über diesen Weg der Externalisierung als Geschichte und der Umformulierung der Geschichte durch ein KI-Sprachmodell sehr lernförderlich war. Zugleich macht der Ansatz des Storytelling viel Freude, weshalb ich auch diese Variante der Modellierung mit KI-Sprachmodellen weiter empfehlen kann.
Variante 3: Thesen (und ihre Überprüfung)
Mein dritter Versuch war eine Externalisierung eines mentalen Modells als prägnante These. Ich nutze hier mein entwickeltes mentales Modell zur lernförderlichen KI-Nutzung.
Als These formuliert lautet es:
Je mehr Interaktion und Input bei der Interaktion mit KI-Sprachmodellen, desto lernförderlicher.
Diese These ordnete ich als externalisiertes mentales Modell ein. In Interaktion mit einem KI-Sprachmodell experimentierte ich damit, wie sich eine Weiterentwicklung meines mentalen Modells gut erreichen lassen könnte. Wichtig war mir hier zunächst die Festlegung, immer ganz prägnante Antworten zu geben.
Dann fragte ich zunächst nach drei Aspekten, die die These bestätigen. Hier erhielt ich diese drei Punkte:
- Nutzer müssen sich aktiv mit Inhalten auseinandersetzen.
- Rückfragen und Feedback ermöglichen direktes Lernen.
- Vielfältiger Input führt zu tieferer Auseinandersetzung.
Dann fragte ich nach dreimal Widerspruch und erhielt diesen:
- Zu viel Input kann überfordern und Lernprozesse hemmen.
- Qualität des Inputs ist oft wichtiger als Quantität.
- Passive Nutzung kann dennoch effektive Impulse geben.
Schließlich fragte ich nach drei möglichen Erweiterungen:
- …wenn die Interaktion zielgerichtet und reflektiert erfolgt.
- …insbesondere bei individualisiertem Feedback.
- …vorausgesetzt, der Nutzer bringt Vorwissen mit.
Zum Abschluss fragte ich nach einem Fallbeispiel, wo die These zutrifft, und einem, wo sie nicht zutrifft. Das war die Antwort:
- Zutreffendes Fallbeispiel: Ein Schüler nutzt ein KI-Modell, um Matheaufgaben zu lösen, stellt Rückfragen bei Unklarheiten und erhält Erklärungen, wodurch er Konzepte besser versteht.
- Nicht-zutreffendes Fallbeispiel: Ein Nutzer interagiert viel mit dem KI-Modell, stellt aber irrelevante oder oberflächliche Fragen, ohne auf die Antworten einzugehen – kein echter Lernzuwachs.
Auf dieser Basis hatte ich viele Anregungen, um meine These zu reflektieren – also um mein mentales Modell weiter zu entwickeln. Im Ergebnis habe ich insbesondere versucht, sie auch mehrdeutiger zu formulieren und kam zu diesem Ergebnis:
Je personalisierter, von Neugier getrieben und interaktionsgeleiteter die Nutzung von KI-Sprachmodellen, desto größer kann der Lernzuwachs sein.
Auch diese Variante der Modellierung in Thesenform fand ich für mich sehr hilfreich. Besonders die Generierung eines zutreffenden und eines nicht-zutreffenden Fallbeispiels werde ich sicherlich noch häufiger nutzen.
Fazit
Spannend finde ich an diesen Experimenten vor allem, dass sich der Einsatz von Technologien im Modellierungsprozess gewissermaßen verschiebt:
- Für die reine Externalisierung mentaler Modelle bleibt klassische Technologie – etwa eine Mindmap-Software, wie sie Jonassen bereits vorgeschlagen hat – nach wie vor völlig ausreichend bzw. ist sogar der lernförderliche Weg, um nicht für das Lernen hinderliche Abkürzungen zu nehmen. Ich mache diesen Schritt nun sogar gerne ganz haptisch.
- Neu und weiterführend ist hingegen der Resonanzansatz mit generativen KI-Sprachmodellen, die gerade bei der Bearbeitung und Verfeinerung bereits externalisierter Modelle als Mindtools fungieren können.
Meine drei Versuche haben mir gezeigt, wie hilfreich die Nutzung solch eines erweiternden Resonanzraums bei der Modellierung und damit beim Lernen sein kann. Ich halte es für sehr lohnend, weiter in diese Richtung zu experimentieren. Vielleicht hast Du ebenfalls Lust, dazu zu erkunden. Viel Freude dabei – und ich bin gespannt, was du an Erkenntnissen teilen wirst.
Beitrag weiternutzen und teilen
Dieser Beitrag steht unter der Lizenz CC BY 4.0 und kann somit gerne offen weitergenutzt und geteilt werden. Hier kannst du dir den Beitragslink und/oder den Lizenzhinweis kopieren.