Mit KI-generierten Zusammenfassungen lernen?

KI-generierte Zusammenfassungen werden zunehmend als ein Standard-Feature in Online-Arbeitsumgebungen und Tools integriert. Ich habe es zuletzt in Google Drive entdeckt, wo ich nun Googles Sprachmodell Gemini aktivieren kann – und mir dann direkt eine Zusammenfassung eines dort gespeicherten Dokuments oder Ordners angeboten wird. Auch unabhängig von solch einer standardmäßigen Integration scheint mir die Möglichkeit, sich schnell mithilfe von KI-Modellen eine Zusammenfassung eines Inhalts generieren zu lassen, vielfach zum Lernen genutzt oder vorgeschlagen zu werden.

Ich nehme das zum Anlass, um in diesem Blogbeitrag grundsätzlicher darüber zu reflektieren, welchen Wert solche KI-generierten Zusammenfassungen für das Lernen haben können bzw. ob sie sogar ganz im Gegenteil auch eher lernverhindernd wirken können. Das Ziel dieser hinterfragenden Reflexion ist es, mit einem gestaltenden Anspruch auf die aktuelle KI-Entwicklung zu blicken. Das umfasst sowohl die individuelle Nutzung (= Erlebe ich das für mich als sinnvoll – und wenn ja, wie?), die pädagogische Perspektive (= Wie kann ich andere bei einer klugen Nutzung begleiten?) und die technologische Ausgestaltung (= Welche Technologie ist in welcher Form zum Lernen sinnvoll?).

Pappkameraden-Argument: Vollständiges Lesen ist wirkungsvoller als zusammenfassen lassen!

Eine erste, ablehnende Reaktion auf zunehmende Zusammenfassungen von Texten könnte sein, dass man vergleichend analysiert, wie viel man von einem Inhalt mitnimmt, wenn man ihn sich selbst und vollständig erarbeitet versus wenn man eine KI-generierte Zusammenfassung liest. Solche Vergleiche halte ich für großen Quatsch, weil es natürlich klar ist, dass die umfassende Beschäftigung mit einem Text eine sehr viel intensivere Auseinandersetzung ermöglicht, als wenn ich nur die Zusammenfassung des Inhalts lese. Das ist aber unabhängig davon, ob die Zusammenfassung KI-generiert ist oder nicht.

Mit solchen Pappkameraden-Argumenten will ich mich im folgenden deshalb nicht näher auseinander setzen. Um die Tendenz zu zunehmenden Zusammenfassungen klüger zu reflektieren, ist meine Grundlage stattdessen eine veränderte Art und Weise der Rezeption. Das bedeutet: Genau so, wie ich schon im Kontext des Internets immer weniger linear gelesen habe, sondern zwischen Textbestandteilen hin und herspringen konnte, so lässt sich diese Art des vernetzten Lesens nun potentiell noch erweitern. Ich kann mir zunächst über KI-generierte Zusammenfassungen einen schnellen Überblick zu mehreren Inhalten verschaffen – und dann gezielt an den für relevanten Stellen vertiefen. Ich habe darüber in eines meiner KI-Experimente gebloggt.

Der große Vorteil scheint mir bei dieser Herangehensweise zu sein, dass es angesichts von immer mehr Inhalten und immer komplexeren Herausforderungen auf diese Weise gelingen kann, sich zu orientieren und darauf aufbauend zu gestalten.

Genau diese Perspektive will ich mir aber genauer anschauen: Denn solch ein beschriebenes, vernetztes Lesen funktioniert nur dann gut, wenn der grundlegende Baustein der KI-generierten Zusammenfassung hierfür passend ist. So faszinierend ich also grundsätzlich die Perspektive solch eines vernetzten Lesens finde, so wichtig finde ich es zugleich, im Kontext schneller technologischer Entwicklung wie aktuell der KI-Entwicklung immer wieder einen Schritt zurückzutreten und sich zu fragen: Ist das wirklich sinnvoll oder mache ich mir da selbst etwas vor? Also im Fall von Zusammenfassungen konkreter gefragt: Sind diese Zusammenfassungen tatsächlich sinnvoll, um unser Lernen zu immer größeren Teilen auf ihnen aufzubauen?

Leitfragen zur Beobachtung: Verlässlichkeit, Orientierung und Neugier

Um mich im Kontext der KI-Entwicklung zu orientieren, helfen mir eigene KI-Experimente immer sehr gut. Ich folge damit dem Grundsatz des ‚Beobachtens vor Bewertens‘ aus dem Manifest des langsamen Denkens. Das bedeutet: Ich habe nicht direkt eine Meinung dazu, sondern nehme mir Raum zum Erkunden. Ob KI-generierte Zusammenfassungen dann hilfreich sein können, um Lernen (und verändertes Lesen) darauf aufzubauen, möchte ich anhand von drei ‚Nordstern‘-Fragen entscheiden:

  • Sind die Zusammenfassungen verlässlich?
  • Bieten die Zusammenfassungen eine gute Orientierung?
  • Machen die Zusammenfassungen neugierig?

Zusätzlich lassen sich mögliche Alternativen in den Blick nehmen und die Frage stellen, was funktioniert wie gut?

Mein Experiment: Viele, viele Zusammenfassungen!

Mein Versuchsaufbau war so, dass ich mir sieben Texte vorgenommen habe und diese sowohl selbst zusammenfasst habe, als auch mit unterschiedlichen KI-Sprachmodellen zusammenfassen habe lasse. Ganz bewusst habe ich dabei unterschiedliche Texte in Hinblick auf den Stil, den Inhalt, die Länge und die Sprache gewählt.

Hier teile ich zunächst unkommentiert den so entstandenen Output. Mein Prompt war immer: „Schreibe mir eine sehr kurze und prägnante Zusammenfassung von diesem Text als Fließtext: [URL]“

Text 1: AI-Responsibility in a hyped-up World (Per Axbom)

Text 2: Mehr Ambiguität wagen! (Eigener Text)

Text 3: Differenzierung: Gut für die Kinder oder für die Lehrer? (Halbtagsblog)

Text 4: Are ‚AI‘-systems really tools? (tante)

Text 5: Wissensarbeit ohne KI ist wie Sahne mit einer Gabel steif schlagen. (Philippe Wampfler)

Text 6: Future Skills to go (Hochschulforum Digitalisierung)

Text 7: Das Konzept der Neuen Autorität (Quelle: Zeitschrift Pädagogik Ausgabe 6/2005)

Wie lässt sich dieser Output nun vor dem Hintergrund der formulierten Nordstern-Fragen reflektieren?

Fokus 1: Verlässlichkeit

Zur Einordnung der Verlässlichkeit finde ich insbesondere die generierten Zusammenfassungen zum Text von Tante ‚Are ‚AI‘ systems really tools?‘ spannend. Denn offensichtlich ist seine Website so gestaltet, dass ein Zugriff durch KI-Modelle möglichst ausgeschlossen bleiben soll. In den KI-generierten Zusammenfassungen taucht allerdings nur bei Gemini der Hinweis auf, dass ein Zugriff nicht möglich war und die generierte Zusammenfassung auf weiteren Quellen basiert. Claude scheint sich Zugriff verschafft zu haben; zumindest lässt das die generierte Zusammenfassung vermuten. Bei ChatGPT stoße ich nur dann darauf, dass die vermeintliche ‚Zusammenfassung‘ eigentlich eine Rezeption von Bluesky, Reddit und LinkedIn Postings ist, wenn ich gezielt auf ‚Quellen anzeigen‘ klicke.

Quellenanzeige nach Aufforderung bei ChatGPT

Als erstes Risiko lässt sich also festhalten, dass KI-Sprachmodelle häufig so gestaltet sind, dass die oberflächliche Zufriedenheit der Nutzenden mit der Interaktion höher gewichtet wird, als eine verlässliche Information. Diese Orientierung kenne ich bereits aus früheren Interaktionen mit KI-Sprachmodellen: Wenn nichts direkt als Output auf meine Eingabe hin passt, wird eben irgend etwas generiert! Für die Verlässlichkeit von Zusammenfassungen ist das nicht hilfreich.

Neben diesem offensichtlichen Fehler scheinen mir die übrigen Zusammenfassungen überwiegend in Ordnung zu sein. Bei genauem Lesen finden sich aber doch einige objektive Fehler. Zum Beispiel erfindet Claude im Text zu Differenzierung im Halbtagsblog von Jan-Martin Klinge eine Kollegin, die dem Autor widerspricht, was so nicht im ursprünglichen Text auftaucht.

Wichtiger finde ich einen weiteren Punkt: Eine Zusammenfassung ist immer eine Auswahl und damit eine Wertung! Wenn ein Mensch eine Zusammenfassung schreibt, dann wird er sich diese Wertung bewusst überlegen – und er wird dazu vielleicht auch von anderen dazu zur Verantwortung gezogen. Bei den Zusammenfassungen der KI-Sprachmodelle merke ich allerdings bei mir selber, dass ich hier viel eher eine ‚objektive‘ Zusammenfassung erwarte. Nun ist es sicherlich richtig, dass ein KI-Sprachmodell sich nicht wie ein Mensch bewusst dazu entscheidet, einen bestimmten Teil eines Inhalts in der Zusammenfassung eine größere Bedeutung beizumessen, als einem anderen Teil. Aber es gibt eben auch nicht nur eine objektiv, richtige Zusammenfassung, sondern sehr viele unterschiedliche Möglichkeiten. Ein KI-Sprachmodell ‚würfelt‘ somit mit jeder Anfrage eine andere, mögliche Zusammenfassung aus. Wenn ich also zehnmal eine Zusammenfassung generieren lassen, dann habe ich am Ende zehn verschiedene Zusammenfassungen. Ich habe das an meinem eigenen Text ausprobiert und in diesen zehn Versionen durchaus sehr unterschiedliche Schwerpunkte gefunden.

Nun könnte man einwenden, dass ja auch zehn Menschen zehn unterschiedliche Zusammenfassungen entwickeln würden. Das ist richtig. Es gibt aber zwei wichtige Unterschiede:

  1. Es ist bei den menschlichen Zusammenfassungen problemlos möglich – auch in der sozialen Interaktion mit anderen Menschen – auf eine bestimmte Zusammenfassung zu referenzieren. In einer Lerngruppe könnte also eine Person sinngemäß sagen: ‚Ich beziehe mich hier jetzt auf die Zusammenfassung von Person NN‘. Die KI-Zusammenfassung ist dagegen nicht referenzierbar. Selbst wenn alle Personen in einer Lerngruppe mit dem gleichen KI-Sprachmodell arbeiten, erhalten sie alle unterschiedliche Zusammenfassungen.
  2. Bei einer von einem Menschen generierten Zusammenfassung gehe ich grundsätzlich von einer bestimmten Perspektive aus. Bei einem KI-Sprachmodell erwarte ich (ob gerechtfertigt oder nicht sei hier erstmal dahingestellt) Objektivität, was in der Form wie gezeigt nicht realisierbar ist.

Ich halte zum Punkt ‚Verlässlichkeit‘ somit drei Herausforderungen fest:

  1. Alle dazu zu befähigen, zu erkennen, dass (z.B. aufgrund eines fehlenden Zugriffs) Quatsch als Zusammenfassung generiert werden kann.
  2. Im sozialen Austausch auf eine gemeinsame Grundlage zu referenzieren.
  3. Eine grundsätzlich kritische, hinterfragende Haltung auch gegenüber automatisierten, also KI-generierten Zusammenfassungen zu erlernen.

Fokus 2: Orientierung

Bei einer Zusammenfassung ist mir neben einem Überblick über die wichtigsten Inhalte vor allem auch Orientierung wichtig. Ich möchte also wissen, mit was für einem Inhalt ich es hier zu tun habe.

Wenn ich die Zusammenfassungen von mir selbst und von den KI-Modellen zu den unterschiedlichen Texten unter diesem Gesichtspunkt miteinander vergleiche, dann fällt mir auf, dass in meinen Zusammenfassungen deutlich häufiger Anmerkungen zur Orientierung zu finden sind. Ich schreibe zum Beispiel häufiger dazu, in welcher Sprache der Inhalt geschrieben wurde (wenn nicht auf deutsch), von wann er stammt oder um was für eine Art von Inhalt es sich handelt (z.B. eine überblicksartige Darstellung, eine persönliche Reflexion …). Ich mache das automatisch, da ich mich in einem bestimmten Kontext bewegen – und Zusammenfassungen demnach auch in diesen Kontext einordne. Vor diesem Hintergrund greife ich auch bewusst bestimmte Schlagwörter und Themen aus meinem aktuellen Kontext in meinen Zusammenfassungen auf. In ein paar Monaten wäre es somit gut denkbar, dass meine Zusammenfassung eine andere ist.

Der Fokus der KI-generierten Zusammenfassungen liegt dagegen auf der inhaltlichen Zusammenfassung. Sehr häufig wird zudem die Art und Weise der Argumentation weggelassen und stattdessen auf die zentralen Inhalte verwiesen. Diese werden oft sehr ‚fertig‘ postuliert. (Natürlich könnte ich nun an dieser Stelle ausgefeiltere Prompts schreiben und entsprechende Zusatz-Informationen abfragen. Die Entwicklung steuert aber ja zurzeit dahin, dass ich vor dem Blick auf den eigentlichen Inhalt immer häufiger zunächst eine Zusammenfassung sehe, die ich dann selbst gar nicht prompte.)

Als Herausforderung lässt sich hier somit festhalten, dass KI-generierte Zusammenfassungen tendenziell ärmer an Orientierungsmöglichkeiten sind. Diese Orientierungen muss ich mir dann auf anderen Wegen besorgen. Wenn ich darauf verzichte, weil ich zum Beispiel hauptsächlich Inhalte miteinander vernetzen und auf diese Weise lernen will, besteht das Risiko zu entkontextualisierten Einordnungen und somit fehlendem Verständnis oder irrtümlichen Einordnungen.

Fokus 3: Neugier

Die dritte ‚Nordstern-Frage‘ – Machen die Zusammenfassungen neugierig? – ist für mich die wahrscheinlich wichtigste Frage. Denn gerade hier sehe ich im pädagogischen Kontext eine große Herausforderung. Je schneller und einfacher uns Informationen zur Verfügung stehen, desto wichtiger wird es, dass wir eben nicht bei der Befriedigung unserer ‚flüchtigen‘ Neugier stehen bleiben, sondern uns in eine ‚forschende Neugier‘ hinein begeben. Übertragen auf Zusammenfassungen bedeutet das: Eine Zusammenfassung soll mich im besten Fall dazu motivieren, es genauer wissen zu wollen, d.h. mich in das jeweilige Thema vertiefen zu wollen. Das kann dann so aussehen, dass ich auch den vollständigen Text lese – oder aber eben, dass ich mich auf andere Art und Weise mit den Inhalten auseinander setze.

Mein Eindruck ist hier, dass die KI-generierten Zusammenfassungen zu geschliffen und glatt wirken, als dass ich den Eindruck hätte, dass es hier noch mehr zu Entdecken gibt. Stattdessen wirkt es auf mich so, dass ich einen Haken dran setzen kann. Jetzt scheine ich ja gelesen zu haben, was ich dazu wissen muss! Genau das bedeutet dann aber, dass ich bei flüchtiger Neugier stehen bleibe. Durch die weniger generische Darstellung in meinen eigenen Zusammenfassungen habe ich dagegen eher den Eindruck, dass man zum Weiterlesen angestupst wird.

Wo liegen Alternativen?

Zu einem Hinterfragen von KI-generierten Zusammenfassungen gehört auch, sich in Erinnerung zu rufen, was mögliche Alternativen bzw. Ergänzungen (technologisch und nicht-technologisch) sein könnten. Insbesondere diese drei Formen einer Zusammenfassung erlebe ich zum Lernen in diesem Sinne als hilfreich:

  1. Ich kann mir den Text direkt ansehen und querlesen bzw. überfliegen. Orientierung bieten mir dann fett gedruckte Begriffe, Zwischenüberschriften oder auch eigene Abstracts der Autor*innen. Das ist oft schon ausreichend, um zu erkennen, ob ich mich mit dem Text näher auseinandersetzen will oder mit was ich ihn in Verbindung bringen könnte. (Gerade bei den auch hier verwendeten kürzeren Texten ist zudem der zeitliche Aufwand zum Lesen einer Zusammenfassung im Vergleich zum zeitlichen Aufwand zum Lesen des gesamten Textes gar nicht mal so viel höher – und zugleich deutlich freudvoller)
  2. Insbesondere, wenn es in Lernangeboten um mehrere Inhalte geht, kann mit Kollaboration viel erreicht werden: Jede Person liest einen Text und stellt die Zusammenfassung den anderen zur Verfügung. Gemeinsam baut man sich so eine kollaborative Wissensbasis auf.
  3. Technologische Lösungen, die ähnlich wie Zusammenfassungen wirken, sind zum Beispiel die Voyant-Tools, die einen Text ‚durchleuchten‘ und mir als Schlagwortwolke und in weiteren Darstellungen einen Überblick über den Inhalt bieten. Anders als generische KI-Zusammenfassungen laden sie sehr zur Vertiefung ein.
Alternative ‚Zusammenfassung‘ meines Textes mit den Voyant-Tools

Fazit

Technologie ist menschengemacht und gestaltbar. Gerade deshalb lohnt es sich immer wieder, genauer hinzuschauen, was aktuelle, technologische Lösungen versprechen und diese Möglichkeiten pädagogisch zu reflektieren. Zum einen kann dann wo Bedarf gesehen wird auf eine veränderte Gestaltung hingewirkt werden. Zum anderen können auch erkannte neue Herausforderungen durch veränderte Praxis aufgegriffen und bearbeitet werden.

In diesem Fall nehme ich aus meinen Experimenten die folgenden (vorläufigen) Schlussfolgerungen für mich mit:

  • Kritisches Denken wird im Kontext von KI als Kompetenz wichtiger. Menschen müssen lernen, Autoritäten (zu denen in einer zunehmend KI-geprägten Welt auch KI-Modelle gehören) grundsätzlich zu misstrauen und ihren Output kritisch zu reflektieren.
  • Die große Bedeutung, die KI-generierte Zusammenfassungen im Bildungskontext und vor allem bei der Wissensarbeit häufig beigemessen werden, erscheint angesichts der realen Möglichkeiten nicht bzw. nicht immer gerechtfertigt. Grundsätzlich lässt sich die Frage stellen, ob die Gestaltung von KI-Systemen als menschenähnliche Chatbots tatsächlich der Weisheit letzter Schluss ist.
  • Der große Fokus in der aktuellen Bildungsdebatte auf das Lernen von KI-Nutzung sollte nicht dazu führen, dass andere Praktiken – wie hier zum Beispiel Praktiken von Zusammenfassungen – in den Hintergrund gedrängt werden.

Ich freue mich, auch von deinen Überlegungen zu diesem Thema zu lesen.

Nachtrag: Direkt nach Veröffentlichung habe ich ChatGPT um eine Zusammenfassung des Blogartikels unter Verfügbarmachung des Links gebeten. Offensichtlich kann das Tool so kurz nach einer Veröffentlichung den Text noch nicht aufrufen. Anstatt genau das zu formulieren, wird diese vermeintliche ‚Zusammenfassung‘ generiert:

Hier ist die sehr kurze und prägnante Zusammenfassung des Artikels „Mit KI-generierten Zusammenfassungen lernen“ als Fließtext:

Der Beitrag beschreibt, wie KI-gestützte Zusammenfassungen das Lernen bereichern können, indem sie Inhalte kondensieren und als Ausgangspunkt für Reflexion und Vertiefung dienen. Statt sich auf den automatischen Output zu verlassen, empfiehlt die Autorin, zunächst eigene Gedanken und Notizen zu entwickeln und anschließend die KI dialogisch zur Erweiterung zu nutzen – ein Vorgehen, das kritisches Denken fördert und kreative Auseinandersetzung ermöglicht .


Beitrag weiternutzen und teilen

Dieser Beitrag steht unter der Lizenz CC BY 4.0 und kann somit gerne offen weitergenutzt und geteilt werden. Hier kannst du dir den Beitragslink und/oder den Lizenzhinweis kopieren. Wenn du den Beitragslink in das Suchfeld im Fediverse (z.B. bei Mastodon) eingibst, wird er dir dort angezeigt und du kannst ihn kommentieren.


Erschienen in der Kategorie:
Reaktionen im Fediverse
Anregungen zum Weiterlesen