Welchen Anspruch habe ich bei mir und anderen an veröffentlichte Inhalte in Hinblick auf die KI-Nutzung?

In diesem Blogbeitrag setze ich mich mit der Frage auseinander, welchen Anspruch ich in Hinblick auf die Nutzung von KI an die Inhalte habe, die ich erstelle, und was ich mir zugleich auch von anderen bei ihrer Inhaltserstellung wünsche. Der Anlass für diesen Blogbeitrag ist vielfältig:

  • Ich merke, dass ich selbst immer genervter werde, wenn ich Mails erhalte, die offensichtlich von einem KI-Sprachmodell generiert wurden, oder wenn im Internet Inhalte geteilt werden, die bei genauerem Hinsehen fast ausschließlich KI-generiert und damit sehr beliebig und aufgebläht sind.
  • Ich stelle fest, dass dieses Thema auch andere beschäftigt. Unter anderem habe ich von Jörg Steineman vor kurzem die Aufforderung gelesen, die KI-Nutzung bei veröffentlichten Inhalten doch bitte transparent zu machen (und er schlägt dazu ein Stufenmodell vor, das von keiner KI-Nutzung, über KI-Nutzung zur Inspiration oder Überarbeitung bis hin zu ausschließlicher KI-Generierung des Inhalts reicht).
  • Ich befinde mich in Bezug auf meine eigenen Inhalte in einem Reflexionsprozess darüber, wie ich Inhalte schreiben will und welche Art von KI-Nutzung ich dabei für mich selbst hilfreich und für die Lesenden meiner Inhalte sinnvoll bzw. zumindest zumutbar finde.

Bereits vor einiger Zeit bin ich auf den ‚Nicht-von-KI‘-Badge gestoßen, der an Inhalte hinzugefügt werden kann, die explizit von Menschen und nicht von einem KI-Modell entwickelt wurden. Bei meiner Reflexion darüber merkte ich allerdings schnell, dass die Situation komplexer ist und ein einfacher Badge – KI-Nutzung: Ja oder Nein? – nicht wirklich weiterhilft. Mein erster Schritt war deshalb, mir zunächst einmal genauer anzusehen, welche Forderungen denn an ‚gute‘ Inhalte bei KI-Nutzung gestellt werden und was mir dabei auch selbst wichtig ist.

Forderungen an Inhalte bei KI-Nutzung

Bei der Erstellung von Inhalten unter KI-Nutzung nehme ich vor allem drei Forderungen wahr: Erstens soll die KI-Nutzung transparent sein, zweitens ist die korrekte inhaltliche Darstellung ein Anliegen, und drittens geht es um Authentizität. Was bedeuten diese Forderungen genau und wie lässt sich damit umgehen?

1. Transparenz

Die wahrscheinlich häufigste Forderung bei KI-generierten Inhalten ist die nach einer transparenten Auszeichnung. Das bedeutet: Wenn jemand einen Text oder eine Mail nicht selbst schreibt, sondern von einem KI-Sprachmodell generieren lässt, dann soll die Person das bitte dazu schreiben. Diese Forderung finde ich dann unterstützenswert, wenn es sich um (fast) vollständig KI-generierte Inhalte handelt. Also beispielsweise, wenn ich in einem KI-Sprachmodell den Prompt eintragen würde: „Schreibe einen Blogbeitrag mit 10 kreativen Kennenlernmethoden zum Schuljahresanfang“ – und den so generierten Text dann ohne oder mit nur kleineren Änderungen in meinem Blog veröffentlichen würde. (Keine Sorge, das habe ich ganz sicher nicht vor 🙂). In diesem Fall würde der Artikel ohne den Transparenz-Hinweis auf die KI-Nutzung unter meinem Namen veröffentlicht sein. Die Leser*innen würden also zu Recht erwarten, dass sie sich beim Lesen dieses Blogbeitrags mit mir und meiner Perspektive auseinandersetzen, was aber durch die KI-Generierung nicht der Fall wäre. Deshalb ist in solchen Fällen ein Transparenzhinweis auf die erfolgte KI-Nutzung in der Tat sinnvoll.

Nun ist die Welt aber nicht schwarz-weiß, sondern es gibt viele Zwischenstufen. Das gilt auch bei der KI-Nutzung zur Erstellung von Inhalten. Deshalb ist es mit der einfach klingenden Forderung nach Transparenz aus meiner Sicht nicht getan. Um das zu veranschaulichen, können wir uns ein paar Möglichkeiten anschauen, wie ich KI-Sprachmodelle im Schreibprozess nutze:

  • Ich suche nach einer guten Metapher für eine Sache, die ich beschreiben will.
  • Ich frage nach, was ich in einer Gliederung zu einem Thema vielleicht noch ergänzen könnte.
  • Ich probiere aus, ob sich ein sehr verschachtelter Absatz auch einfacher formulieren lässt

Diese Nutzungsmöglichkeiten sind noch nicht fest, sondern entwickeln sich ständig weiter. So entsteht für mich zurzeit Schritt für Schritt eine veränderte Art des Schreibens. Genau so, wie ich schon vor den aktuellen KI-Entwicklungen hin zu großen Sprachmodellen vielleicht ein Synonymwörterbuch, eine Internetrecherche für weitere Anregungen oder auch ganz banal eine automatische Rechtschreibüberprüfung nutzen konnte, so stehen mir nun mehr und vor allem veränderte Möglichkeiten zum Schreiben zur Verfügung.

Genauso wenig wie ich früher angegeben hätte, dass mein Text z.B. mit einer automatischen Rechtschreibkorrektur korrigiert wurde, so würde ich es auch jetzt nicht für sinnvoll halten, diese vielfältigen und kleinschrittigen KI-Nutzungen auszuzeichnen bzw. das von anderen einzufordern.

In der aktuellen Situation würde ich hier lediglich aus pädagogischen Gründen eine Ausnahme machen. Denn die Art und Weise der KI-Nutzung ist aktuell gesamtgesellschaftlich ein Lernprozess. Vor diesem Hintergrund kann solch eine Transparenz über eine auch kleinschrittige KI-Nutzung – die in einigen Jahren wahrscheinlich so selbstverständlich ist, wie wir heute eine automatische Rechtschreibüberprüfung nutzen – durchaus sinnvoll sein, weil sie das Lernen unterstützt. Deshalb finde ich es auch im Bildungskontext an vielen Stellen vernünftig, dass Lernende sehr detailliert angeben, welche KI-Tools sie wie zur Unterstützung bei der Erstellung eines Textes genutzt haben. Denn das eröffnet einen Reflexionsraum, um gemeinsam über sinnvolle und weniger sinnvolle KI-Nutzung zu lernen.

Von dieser Ausnahme abgesehen ist die Forderung nach Transparenz bei der KI-Nutzung außer bei fast ausschließlich KI-generierten Texten somit nicht sinnvoll umsetzbar, weil sie nicht berücksichtigt, dass sich eine veränderte Form des Schreibens entwickeln kann, die Inhalte trotz KI-Nutzung weiter noch meine Inhalte sein lässt. Sobald ich mich in die Feinheiten der KI-Nutzung hinein begebe, wird es sehr schnell so vielfältig, dass Transparenzhinweise (auch wenn es in Form eines Stufenmodells versucht wird) nicht wirklich funktionieren. Deshalb kann aus meiner Sicht auch ein ‚Not by AI‘-Badge keine Lösung für die Markierung guter Inhalte sein.

2. Inhaltliche Darstellung

KI-Modelle generieren Inhalte auf Grundlage eingegebener Prompts mithilfe von komplexen Wahrscheinlichkeitsrechnungen und riesigen Datenmengen, die ihnen als Trainingsdaten zur Verfügung standen. Da ist es kein Fehler, sondern im System angelegt, dass dabei immer mal wieder auch objektiver Quatsch im generierten Output herauskommen kann. In der Pädagogik sprechen wir in diesem Fall von Halluzinationen. Vor diesem Hintergrund wird an Texte, die mithilfe von KI-Modellen entwickelt wurden, natürlich der Anspruch gestellt, dass sie inhaltlich korrekt sein sollen. Umgesetzt wird das meist so, dass unter einem Text der Name einer Person steht, die für den Inhalt inhaltlich verantwortlich zeichnet. In diesem Fall schaut die Person über die generierten Inhalte drüber und korrigiert Fehler bzw. nimmt offensichtlich notwendige Anpassungen bzw. Aktualisierungen vor. Solche Verfahren sind sicherlich besser als nichts. Mir ist das aber sowohl für meine eigenen Texte als auch für die Texte von anderen zu wenig. Denn es geht nicht nur um eine oberflächliche Stimmigkeit der Inhalte, sondern vor allem insgesamt um die Darstellung der Inhalte.

Ich mache hier bei der Nutzung von KI-Sprachmodellen immer wieder die Erfahrung, dass die Texte – oft subtil und nicht direkt sichtbar – bei einer KI-Generierung inhaltlich anders geschrieben werden, als wenn ich selbst schreibe. Das beginnt bei Kleinigkeiten: Zum Beispiel schreibe ich über KI meistens unter Nutzung der Begriffe ‚KI-Tools‘, ‚KI-Sprachmodelle‘ oder ‚KI-Technologie‘. In KI-generierten Texten ist stattdessen häufig von ‚der KI‘ die Rede. Noch deutlicher fallen mir solche nur minimalen inhaltlichen Veränderungen in längeren Abschnitten auf. Beispielsweise habe ich einen Absatz in einer Lerneinheit zu KI und Bias, den ein KI-Sprachmodell auf Basis von Stichpunkten von mir ausformuliert hat, mit dem Text verglichen, den ich ein paar Tage später zum gleichen Thema geschrieben habe:

Der KI-generierte Text lautete: „Bias in KI ist ein Problem, das weiterhin diskutiert werden muss. Es ist wichtig, sich dieses Problems bewusst zu sein und aktiv nach Wegen zu suchen, wie man damit umgehen kann. Diskutiert das Thema gemeinsam, reflektiert den Einfluss von Bias auf KI-generierte Inhalte und überlegt, was das für Eure Tätigkeiten bedeutet und wie ihr damit umgehen wollt.“

Mein selbst geschriebener Text lautete: „Macht eigene Erkundungen zu KI und Bias. In Sprachmodellen könnt ihr z.B. beobachten, mit welchen Eigenschaften Frauen und mit welchen Eigenschaften Männer in Texten überwiegend dargestellt werden. All das geschieht sehr subtil. Der erste Schritt zur Veränderung ist ein bewusster Umgang damit. Eine abschließende Lösung gibt es zu dieser Herausforderung nicht.“

Natürlich steht da oberflächlich betrachtet inhaltlich ein fast identischer Text. Doch bei näherem Hinsehen ist es schon ein Unterschied, ob es sich einfach um ein Problem handelt, über das diskutiert werden muss – oder ob es dazu zwar den ersten Schritt der Bewusstmachung, aber keine abschließende Lösung gibt.

Das ist nur eines von vielen Beispielen, wo es bei KI-generierten Texten zu einer leicht anderen inhaltlichen Darstellung kommt. In einem einzelnen Fall ist das sicherlich zu vernachlässigen. Bei einem längeren Text oder sogar bei mehreren Texten kann das doch einen sehr großen Unterschied in der Gesamtaussage machen, die in den Köpfen hängen bleibt.

Zusammengefasst reicht für mich deshalb eine inhaltliche Überprüfung von KI-generierten Texten als Forderung für gute Inhalte nicht aus. Für mich selbst habe ich vielmehr die Regel aufgestellt, wo möglich kein direktes Copy & Paste von KI-generierten Inhalten zu machen. Doch auch hier gibt es Ausnahmen, z.B. wenn ich mit KI-Unterstützung ein Set von Rollenkarten o.ä. erstelle.

3. Authentizität

Eine weitere Forderung, die in Hinblick auf KI-Nutzung häufig gestellt wird, ist die nach Authentizität. Demnach können Inhalte danach bewertet werden, ob sie authentisch sind, d.h. ob die verfassende Person sie in ihrem Stil und vor dem Hintergrund ihrer Erfahrungen und ihrer Perspektive aufgeschrieben hat. Für mich ist das der zentrale Unterschied zwischen eigenen Texten und KI-generierten Texten: Im ersten Fall sind die Texte lebendig, weil auf realen Erfahrungen und Perspektiven beruhend. Im anderen Fall sind sie künstlich, weil auf Basis von allgemeinen Daten erstellt, die zwar auch Milliarden einzelner Erfahrungen beinhalten, die sich aber nicht mehr individuell zuordnen lassen.

Mir ist diese Dimension der Authentizität sowohl in meinen eigenen Texten als auch in den Texten von anderen sehr wichtig. Und ich merke auch, wie oft mir in KI-generierten Texten genau diese Dimension fehlt. Das zeigt sich sehr häufig an einem nichtssagenden bzw. austauschbaren Stil oder auch daran, dass sehr unpassende Beschreibungen in dem Text auftauchen. Ein konkretes Beispiel sind bei mir offensichtlich KI-generierte Anfragen, die ich per Mail erhalte. Da ist in einer Anfrage zu einer Veranstaltung dann beispielsweise die Rede von einer ‚umfangreichen Expertise‘, die für die Teilnehmenden von ‚unschätzbarem Wert‘ sein wird, um ein ‚einzigartiges Erlebnis‘ zu generieren. Ohne Understatement zu betreiben, scheint es mir hier doch deutlich realistischer, dass ich vielleicht vielfältige Erfahrungen oder Wissen einbringen könnte, was für die Teilnehmenden hoffentlich hilfreich sein kann … Solche eigentlich nur minimalen Änderungen in Stil und Formulierung machen den Unterschied, ob die Anfrage für mich sehr offensichtlich vorrangig von einem KI-Sprachmodell stammt oder von einem Menschen.

Mein Vorschlag: Anliegen + Engagement, bewusste menschliche Kommunikation und entschleunigte Produktivität

Es lässt sich also festhalten, dass die Forderungen nach Transparenz, korrekter inhaltlicher Darstellung und Authentizität entweder nicht weitreichend genug oder noch zu vage sind, um sich als Forderung und Selbstverpflichtung bei der Nutzung von KI beim Schreiben eigener Texte zu eignen. Somit eignet such auch ein ‚Not by AI‘-Badge nicht als Gütesiegel. Ich möchte stattdessen drei andere Vorschläge machen, die zwar auch relativ vage in der Operationalisierung sind, aber einen weiteren Diskussionraum öffnen. Auf den ersten Blick führen sie von KI-Nutzung weg bzw. waren eigentlich schon immer grundlegend für gute Texte. Mit KI-Nutzung werden sie aber jetzt deutlich relevanter.

Vorschlag 1: Texte mit Anliegen und Engagement schreiben

Es ist eigentlich eine Binsenweisheit, dass Inhalte besser werden, wenn man Zeit und Anstrengung reinsteckt und damit ein eigenes Anliegen verbindet. Der Unterschied zur Vor-KI-Zeit ist, dass es jetzt grundsätzlich möglich ist, sehr professionell anmutende Texte auch ohne eigenes Anliegen und Engagement zu schreiben. Ein KI-Sprachmodell generiert mir sowohl Vorschläge zu Inhalten, die ich veröffentlichen könnte, als auch die passenden Texte dazu. Wenn ich immerhin doch ein eigenes Anliegen verfolge, aber keine Anstrengung investiere, dann generiert mir ein KI-Sprachmodell einen Inhalt zu einem – manches Mal sehr ausgefeilten – Prompt. Meine These ist, dass solche ‚Fertiginhalte‘ aber eben trotzdem niemals lebendige Inhalte im oben beschriebenen Sinn sein können.

Die gegenteilige Perspektive wäre, dass ich entweder ohne KI-Tools ganz selbst schreibe oder KI-Tools als Unterstützung in meinem Schreibprozess nutze, was für mich vor allem nur wenig bis kein direktes Copy und Paste von ganzen KI-generierten Textabschnitten bedeutet. Die Forderung nach Anliegen und Engagement im Kontext von KI-Nutzung schließt somit KI-Nutzung bei der Inhaltserstellung nicht aus, sondern öffnet die Perspektive hin zu einer veränderten Form des Schreibens von Inhalten. Denn Engagement zur Entwicklung eines Inhalts kann ich sowohl unter Nutzung von KI-Tools erbringen (z.B. indem ich ein KI-Tool als Sparringpartner nutze) als auch ohne KI-Nutzung. Ausgeschlossen ist aber eine Vereinfachung oder Automatisierung.

Vorschlag 2: Bewusste, menschliche Kommunikation

Ich finde, dass wir uns alle in der KI-Debatte viel mehr bewusst machen müssen, was menschliche Kommunikation ausmacht. Insbesondere gehört hier aus meiner Sicht, wie dargestellt, dazu, dass die eigenen Erfahrungen und Perspektiven in die eigenen Inhalte einfließen müssen, wenn daraus menschliche Kommunikation im Sinne eines sozialen Austauschs erfolgen soll. Es ist eine großartige Sache, dass wir auf diese Weise miteinander kommunizieren und in Beziehung zueinander treten können. Wir sollten das weniger als Last ansehen, die uns ein KI-Tool auch schnell abnehmen kann, sondern als großartiges Geschenk für ein soziales Miteinander.

Auch hier lässt sich das wie oben realisieren: Direktes Copy & Paste verhindert vielfach lebendige Texte. Interaktion und kluge Nutzung von KI-Tools kann diesem Anliegen durchaus gerecht werden.

3. Vorschlag: Entschleunigte Produktivität

Mein letzter Vorschlag betrifft die Frage nach Produktivität. Ich kann hier alle Menschen sehr gut verstehen, die sich angesichts vielfältiger Herausforderungen in Alltag und Beruf nach Arbeitserleichterungen sehnen. In Hinblick auf die Entwicklung von Inhalten zur Veröffentlichung und Kommunikation sind KI-Tools aus meiner Sicht hier aber nur scheinbar eine Lösung. Denn ich kann zwar erst einmal sehr schnell produktiver in dem Sinne werden, dass ich mehr und schneller Inhalt entwickle. Wie dargestellt, gibt es aber ohne eigenes Engagement und Anliegen keine wirkliche Weiterentwicklung für uns alle. Es ist etwas, was vielleicht in der aktuellen Situation gut funktioniert, weil man als digital-affiner Mensch schneller ist als manche Kolleg*innen. Auf längere Sicht gesehen, wird uns das aber allen auf die Füße fallen. Denn wenn sich erst einmal herumgesprochen hat, dass es für die Entwicklung von Inhalten und Kommunikation weniger Zeit braucht, dann werden die erst einmal festgestellten Freiräume schnell auch wieder zurückgedreht, weil dann insgesamt die Anforderungen für alle steigen. Das wird zu Lasten einer bewussten Kommunikation gehen.

Ich finde diese Perspektive nicht erstrebenswert. Deshalb ist mein Vorschlag, dass wir Produktivität entschleunigen. Das bedeutet, dass es weniger wert sein sollte, einfach etwas mit einem Prompt zu produzieren – und mehr Wert haben sollte, sich wirklich intensiv und in der Tiefe mit etwas auseinanderzusetzen und dazu auch ganz bewusst menschliche Kommunikation zu gestalten. Der erste Schritt dazu, ist für mich, so etwas z.B. in meinem Blog vorzuleben.

Was meinst Du?

Das war meine Reflexion zur Frage der KI-Nutzung bei der Entwicklung von Inhalten. Dieser Blogbeitrag ist vor allem aber auch ‚lautes Nachdenken‘. Ich freue mich über Ergänzungen, Widerspruch und weiterführende Ideen.


👉 Lust auf mehr?

Gerne unterstütze ich bei der Konzeption und Durchführung von Veranstaltungen und/ oder der Gestaltung von Bildungsmaterialien. Ich freue mich über deine Anfrage.
Monatliche Impulse zu guter Bildung in einer zunehmend digital geprägten Welt erhältst du mit meiner Edumail, die du kostenfrei abonnieren kannst.


Beitrag merken & teilen

Hier kannst Du dir den Link zum Beitrag kopieren - beispielsweise um ihn für Dich zu speichern oder mit anderen zu teilen. Wenn Du den Link in den Suchschlitz im Fediverse einfügst, kannst Du den Beitrag von dort aus kommentieren. Die Kommentare erscheinen dann nach Freigabe hier auf der Website.

Beitrag weiternutzen

Der Beitrag steht unter der Lizenz CC BY 4.0. Du kannst ihn gerne unter Angabe des Lizenzhinweises offen weiternutzen.