Vor ein paar Jahren habe ich dieses Buch gelesen, was mich in meiner weiteren Lerngestaltung vielfach geprägt hat:

Direkt im Umschlagstitel wird erklärt, was die Autor*innen Karen Schmidt und Frank Habermann unter langsamen Denken verstehen:
- Fragen vor Antworten
- Beobachten vor Bewerten
- Perspektivwechsel vor Standpunkt
- Selbstreflexion vor Fremdkritik
Die Idee bei dieser Gegenüberstellung ist, dass wir Menschen zu den Handlungen auf der rechten Seite neigen. Wir gelangen aber zu besseren Entscheidungen, wenn wir immer ein bisschen mehr von dem auf der linken Seite machen, als wir es intuitiv für nötig erachten würden. Dann kommen wir zu besseren Ergebnissen. Wenn wir uns also erst möglichst viele Fragen stellen, finden wir bessere Antworten. Oder wenn wir erst einmal eine Situation lange beobachten, dann kommen wir anschließend zu einer besseren Bewertung.
Diese Überlegungen sind als Manifest nicht nur in dem genannten Buch, sondern auch online veröffentlicht.
Langsames Denken bei der Technologie-Interaktion in der Bildung?
Bei Bildung im digitalen Wandel geht es unter anderem darum, wie wir auch in Interaktion mit Technologie gutes Lernen gestalten können. Im Kontext der aktuellen KI-Debatte ist diese Interaktion sehr offensichtlich, weil Maschinen immer menschenähnlicher gestaltet werden. Wir können uns also zum Beispiel mit KI-Sprachmodellen in einen Chat begeben.
Ich finde, dass es gerade in dieser Situation hilfreich ist, das langsame Denken auf diese Technologie-Interaktion anzuwenden. Dazu habe ich das ursprüngliche Manifest des langsamen Denkens angepasst.

Was ist mit diesen Gegenüberstellungen jeweils gemeint? Lass uns das genauer anschauen.
1. Fragen vor Antworten
Die erste Gegenüberstellung brauchte ich gar nicht anzupassen, denn die Aufforderung Fragen vor Antworten zu stellen, passt auch im Kontext von Technologie-Interaktion. Hier bekommt diese Aufforderung aber zwei weitere Bedeutungen:
- Ganz konkret bei KI-Nutzung empfinde ich es als hilfreich, den Fokus darauf zu legen, mich selbst durch solch ein KI-Sprachmodell herausfordern zu lassen. Das klappt zum Beispiel gut mit der so genannten sokratischen Methode, bei der ein KI-Sprachmodell so instruiert wird, dass es mir zu einem bestimmten Thema Fragen stellt und ich zu Antworten herausgefordert werden. Der Gegensatz wäre, dass ich von einem KI-Sprachmodell keine Fragen, sondern direkt fertige Antworten erwarte.
- Auf einer Meta-Ebene geht es bei ‚Fragen vor Antworten‘ in der Technologie-Interaktion auch darum, dass ich die jeweilige Technologie reflektiere, bevor ich mich unkritisch darauf einlasse. Im Kontext von KI bedeutet das zum Beispiel, sich diese Fragen zu stellen:
- Was ist die Datenbasis des Modells?
- Welche Filtermechanismen werden angelegt?
- Wer entscheidet darüber?
- Mit welchem Interesse wird die Technologie angeboten?
- …
Wenn die Aufforderung ‚Fragen vor Anworten‘ in der Technologie-Interaktion in diesem Sinne ernst genommen wird, dann werde ich im Ergebnis zu besseren Antworten kommen bzw. die erhaltenen Antworten mindestens besser einordnen können.
2. Erkunden vor Integrieren
Die zweite Aufforderung ‚Beobachten vor Bewerten‘ habe ich mit der Perspektive von Technologie-Interaktion umformuliert in ‚Erkunden vor integrieren‘. Diesen Grundsatz finde ich gerade in der aktuellen Situation sehr wichtig, in der an immer mehr (Bildungs-)Orten darauf gedrängt wird, den Experimentiermodus der KI-Anfangszeit nun endlich zu verlassen und Nägel mit Köpfen zu machen. Das bedeutet dann zum Beispiel, Richtlinien zu verabschieden, sich für bestimmte KI-Modelle zu entscheiden und dafür Lizenzen zu erwerben und damit dann eine möglichst gut passende Integration der Technologie in die bisherigen Lernkultur sicherzustellen.
Erkunden vor Integrieren ist stattdessen das Plädoyer den Experimentiermodus so lange wie möglich (wenn nicht sogar als neuen Normalzustand) beizubehalten. Dahinter steht erstens die Überzeugung, dass das Experimentieren dazu führen kann, dass Neues entsteht. In diesem Sinne wird Technologie dann nicht einfach in die bestehende Lernkultur integriert, sondern es geht um Veränderung der Lernkultur. Zweitens kann das Experimentieren dazu führen, dass man selbst kompetenter im Umgang mit der Technologie wird und damit dann nicht das erstbeste, möglichst schlüsselfertige Angebot auswählt, sondern sich stärker überlegt, wie eine mündige Technologie-Nutzung aussehen könnte. In meinem Fall führte viel Experimentieren zum Beispiel zur Gestaltung eines eigenen KI-Servers.
3. Resonanz vor Lösung
Aus ‚Perspektivwechsel vor Standpunkt‘ aus dem ursprünglichen Manifest habe ich im Kontext von Technologie-Interaktion speziell mit KI-Sprachmodellen die Gegenüberstellung ‚Resonanz vor Lösung‘ gemacht. Das schließt an den oben formulierten Grundsatz ‚Fragen vor Antworten‘ an und adressiert wiederum die Ebene der konkreten Nutzung.
Hintergrund ist hier, dass ich immer wieder erlebe, dass KI-Technologie im Sinne einer Lösungs- oder Recherche-Maschine genutzt und damit missverstanden wird. Denn die Funktionsweise der Technologie ist im Kern eine Wahrscheinlichkeitsberechnung. Natürlich führt diese Funktionsweise in sehr vielen Fällen zur Wiedergabe objektiver Fakten, also den richtigen Lösungen zu Herausforderungen. Wenn ich also zum Beispiel die Frage eingebe, was die Hauptstadt von Frankreich ist, dann wird ein KI-Sprachmodell sehr wahrscheinlich nicht mit Rom oder Madrid, sondern korrekterweise mit Paris antworten. Zugleich ist aber das so genannte Halluzinieren von KI-Sprachmodellen – also das Erfinden von Antworten, gerade bei offenen und herausfordernden Fragen – kein einzelner Fehler, sondern durch die Funktionsweise der Technologie als Wahrscheinlichkeitsberechnung angelegt.
Hilfreicher als fertige Lösungen zu erfragen und zu erwarten, ist es deshalb, KI-Sprachmodelle als Resonanzmaschinen zu verwenden. Sie können mir weitere Perspektiven (oder auch frei erfundene Ideen) zu einem Thema aufzeigen. Wenn ich mich mit diesen Perspektiven in Resonanz begebe, kann ich im Ergebnis dann eine bessere Lösung für meine Herausforderung finden.
4. Selbstentwicklung vor Technologie-Hype
Ich finde es an vielen Stellen ziemlich faszinierend, wie sich Technologie in den letzten Jahren entwickelt hat. Es macht Freude, das zu erkunden und damit zu spielen. Zugleich finde ich es gerade aus pädagogischer Perspektive wenig hilfreich, wenn wir Technologie-Entwicklung bestaunen, aber uns wenig bis keine Gedanken darum machen, wie wir als Menschen wachsen können. Denn keine Schülerin wird dadurch klüger, dass ChatGPT das Abitur mit Bestnoten besteht.
Die Aufforderung zu Selbstentwicklung vor Technologiehype adressiert genau diese pädagogische Herausforderung: Es sollte uns auch und gerade im digitalen Wandel immer darum gehen, wie wir Menschen mit und ohne sowie wegen und trotz Technologie-Interaktion wachsen können.
Fazit
Ich finde dieses angepasste Manifest des langsamen Denkens für mich in meiner Arbeit und bei meinem Lernen sehr hilfreich. Vielleicht kann es auch dir als Orientierung nützlich sein. Besonders wichtig finde ich es zudem, sich diese Orientierungen im Rahmen von Organisationsentwicklung immer wieder vor Augen zu führen. Gerade hier erlebe ich es sehr oft, dass zu schnell nach fertigen Antworten und Lösungen gesucht wird, anstatt einem bewusst gestalteten Experimentiermodus Raum zu geben.

Beitrag weiternutzen und teilen
Dieser Beitrag steht unter der Lizenz CC BY 4.0 und kann somit gerne offen weitergenutzt und geteilt werden. Hier kannst du dir den Beitragslink und/oder den Lizenzhinweis kopieren. Wenn du den Beitragslink in das Suchfeld im Fediverse (z.B. bei Mastodon) eingibst, wird er dir dort angezeigt und du kannst ihn kommentieren.
