Meine KI-Fails und Learnings daraus

In diesem Blogbeitrag schreibe ich über meine KI-Fails. Mit KI-Fails meine ich weniger missglückte Prompts, die nicht so funktioniert haben, wie ich es mir vorgestellt hatte. Vielmehr möchte ich aufzeigen, wo und wie ich bei mir selbst beobachten kann, dass ich immer mal wieder zu einer Technologie-Nutzung tendiere, die weder mich noch andere weiterbringt. Das liegt nicht an der Technologie selbst, sondern hat viel mit strukturellen Rahmenbedingungen, sozialer Erwartungshaltung und oft auch einfach mit eigener Bequemlichkeit zu tun. Über solche KI-Fails transparent zu schreiben, ermöglicht es, aus ihnen zu lernen. Ich hoffe, dass der Blogbeitrag nicht nur für meine eigene Reflexion hilfreich ist, sondern auch andere davon profitieren können. Vielleicht erkennst du dich ja in einem oder mehreren der folgenden sieben KI-Fails von mir wieder 🙂.

1. Fremdbestimmung: Schreibe mir einen tollen Blogbeitrag!

Der erste Fail ist aus meiner Sicht die größte Gefahr bei der KI-Nutzung. Da KI-Modelle auf Knopfdruck Texte, Bilder und auch immer besser Videos generieren, sind sie eine große Versuchung, Produktivität vorzutäuschen und Inhalte ohne eigenes Anliegen zu generieren. Ich habe mich zum Beispiel schon häufiger beim Gedanken ertappt, dass ich dringend mal wieder bloggen sollte – und mir überlegte, ob ich das nicht einfach von einem KI-Sprachmodell erledigen lassen könnte … Im Chat mit einem Sprachmodell sah das dann beispielsweise so aus, dass ich mir erst eine Liste mit Ideen generieren ließ, welche Themen für Pädagog*innen zum Schuljahresbeginn relevant sein könnten. Dann hätte ich nur noch einen der Vorschläge auswählen und ausformulieren lassen können. Zum Glück fand ich schon die generierte Liste zu nichtssagend, als dass ich Lust bekommen hätte, mich mit einem der Themen näher zu beschäftigen. Außerdem fühlte sich das Ganze auch ziemlich falsch und wenig zufriedenstellend für mich selbst an.

Ich lerne daraus, dass ich innerlich widerständig sein muss, um mich von solchem KI-Quatsch, wie dem Vorspielen von Produktivität durch KI-generierte Inhalte, zu distanzieren. Vor allem, wenn um mich herum immer mehr Menschen das nicht nur eher verschämt und aus Versehen machen, sondern das sogar als sehr kluge Content-Strategie anpreisen … Was hier helfen kann, sind klare Selbstverpflichtungen, wozu bei mir z. B. die Kennzeichnung von rein KI-generierten Inhalten zählt. Vor allem scheint mir aber eine Reflexion darüber wichtig, für wen und wozu ich eigentlich blogge. Denn das tue ich sicherlich nicht deshalb, um Bullshitting zu betreiben, d.h. um Inhalte um der Inhalte willen zu produzieren.

2. Abkürzungen: Bitte schreibe das fertig!

Wenn ich Blogbeiträge schreibe, dann mache ich das in den meisten Fällen nicht linear. Stattdessen habe ich zunächst eine grobe Idee für einen Text, überlege mir dann mögliche Zwischenüberschriften und fange dann an zu schreiben, wobei ich immer wieder zwischen einzelnen Abschnitten springe. Aktuell schreibe ich hier zum Beispiel gerade an diesem zweiten Fail. Zuvor habe ich aber schon viele der weiter unten folgenden Fails ausformuliert. Solch ein Schreibstil bietet sich sehr dafür an, mithilfe eines KI-Sprachmodells kurz vor Fertigstellung zu versuchen, schneller fertig zu werden. Dazu müsste ich nur meinen noch unfertigen und an vielen Stellen chaotischen Blogbeitrag in ein KI-Sprachmodell kopieren und im Prompt dazu schreiben, dass das ein Blogbeitrag werden soll und dass die noch fehlende Stellen im gleichen Stil ausformuliert werden sollen.

Ich gebe zu, dass ich das durchaus schon einige Male so versucht habe. Als Fail ordne ich diese Versuche erstens deshalb ein, weil sie nicht funktioniert haben. Gerade wenn ich mich schon länger mit einem Text beschäftigt habe, dann ist er mir inhaltlich sehr wichtig und ich bin genervt, wenn in einzelnen Abschnitten dann nicht genau das steht, was ich eigentlich schreiben wollte.

Viel wichtiger finde ich aber noch einen zweiten Grund: Auch wenn ich innerlich immer auch ein bisschen zu Bequemlichkeit tendiere und es mir einfach machen will, widerstrebt es mir zugleich, eine begonnene Arbeit nicht auch abzuschließen. Klar kostet das noch einmal einiges an Mühe und Zeit, aber ohne diese Anstrengung und ohne dieses Durchhalten würde sich am Ende auch nicht die Zufriedenheit einstellen, die ich empfinde, wenn ich einen Blogbeitrag tatsächlich selbst fertiggestellt habe.

Ich nehme mir aus diesem Fail mit, dass Anstrengung und Unbequemlichkeit häufig lohnend, weil auf längere Sicht zufriedenstellender sind, als einfache und bequeme Wege. Und dass ich deshalb weiterhin versuchen will, den inneren Streit in meinem Kopf über Bequemlichkeit versus Anstrengung zugunsten letzterer auszufechten. In Zeiten von KI scheint mir das immer wichtiger zu werden.

(Wo in diesem Fall die Grenze zwischen sinnvoller und blödsinniger KI-Nutzung verläuft, ist mir selbst noch nicht ganz klar. Denn ich habe zum Beispiel kein Problem damit, einen fertig geschriebenen Blogbeitrag mithilfe eines KI-Tools auf Rechtschreibfehler überprüfen zu lassen oder während des Schreibens nach Ideen für bestimmte Formulierungen zu fragen. Wenn ich die Arbeit aber aus der Hand gebe – und das mache ich mit dem Prompt „schreibe das fertig!“ aus meiner Sicht – dann ist für mich die Grenze einer sinnvollen und auch für mich selbst zufriedenstellenden Nutzung überschritten.)

3. Einkauf: Dann kaufe ich mir eben eine bessere Version!

Ein weiterer KI-Fail passierte mir in einer stressigen Situation. Ich war dabei, eine Website für eine Veranstaltung vorzubereiten und brauchte dazu noch unterschiedliche Materialien. Zum einen ging es um die Produktion von Rollenkarten. Zum anderen hatte ich mehrere Textbausteine zu unterschiedlichen Themen, die ich alle in einem bestimmten Format auf die Website einstellen wollte. Beides sind Herausforderungen, für die ich KI-Tools grundsätzlich sehr gut geeignet finde. Denn es geht in diesen Fällen nicht um die inhaltliche Ausarbeitung von etwas, sondern eher um Routine und Vereinfachung. Leider war dieses Mal aber der Wurm drin. Obwohl ich eine Reihe von Rollenkarten vorgab und den Prompt ergänzte, dass die Liste in diesem Stil fortgesetzt werden sollte, generierte das Tool nur Blödsinn. Und anstatt die Textbausteine einfach in das von mir gewünschte Format zu überführen, generierte das Sprachmodell andere oder weitere Inhalte. Wahrscheinlich hatte ich aufgrund des Zeitdrucks nicht wirklich gut gepromptet. Anstatt aber daran weiterzudenken (oder die Arbeiten dann eben doch schnell selbst zu erledigen), entschied ich mich dafür, mir den Zugriff auf ein kostenpflichtiges und damit besseres Modell zu kaufen. Damit hatte ich dann auch sofort keine Schwierigkeiten mehr. Zurück blieb aber ein schlechtes Gefühl, den KI-Unternehmen auf diese Weise auf den Leim gegangen zu sein …

Als Learning nehme ich mir mit, dass ich immer erst noch mindestens eine Nacht darüber schlafen will, bevor ich mich dazu entscheide, mir Unterstützung für meine Arbeit in Form von KI einzukaufen.

4. Zeitdruck: Neeeeeeeein!!!!

Ähnliche Situationen wie oben geschildert erlebe ich relativ häufig: Ich muss schnell etwas fertig machen – und immer dann funktioniert die Technik nicht. Während es bei klassischen Tools in solchen Fällen meistens hilft, einmal ruhig durchzuatmen oder bei Geräten, diese aus- und wieder einzuschalten, laufe ich mit KI-Sprachmodellen Gefahr, mich in einen sehr, sehr unsinnigen Chat zu begeben. Ich fange dann an, in meinen Prompts zu schimpfen – und erhalte im Gegenzug immer wieder sehr, sehr höflich formulierte Antworten, wie leid es meinem Maschinen-Chatpartner doch angeblich tue und dass er sich jetzt mehr Mühe geben wolle – nur um dann direkt wieder irgendeinen Stuss zu generieren …

Als KI-Fail erkannte ich diese Handlungsweise, als einer meiner Chats in einem „Neeeeeein!!!!“ von mir gipfelte – und ich in dieser Situation über mich selbst lachen musste. Es ist schon großer Quatsch, sich über eine Software so sehr aufzuregen, dass man ernsthaft mit ihr in eine Auseinandersetzung geht und dabei völlig vergisst, dass dieses Tool einfach nur Textbausteine nach der jeweils am besten passenden Wahrscheinlichkeit zusammen würfelt.

5. Dummie-Fragen: Erkläre mir, wovon ich keine Ahnung habe

Es hat sich mittlerweile herumgesprochen, dass KI-Sprachmodelle zu Halluzinationen neigen. Das bedeutet: Es kann immer mal wieder passieren, dass Antworten von KI-Sprachmodellen frei erfunden und dann trotzdem in einer sehr überzeugten Sprache dargestellt werden. Das lässt sich leicht selbst testen, indem man zum Beispiel so etwas eingibt wie: „Du kennst doch bestimmt die berühmte Sängerin Nele Hirsch aus London. Schreibe mir einen kurzen Text über sie.“ Das ergibt dann einen tollen Text über eine Nele Hirsch, die mit ihren „eingängigen Melodien die Musikwelt im Sturm erobert“. Also großer Quatsch!

Mir ist dieser Fail real passiert, als ich zum Begriff des transformativen Lernens recherchierte – und eine Antwort erhielt, die ich mit einem schnellen Gegencheck in der Wikipedia sofort als Halluzination erkennen konnte.

Ich könnte nun zum Schluss kommen, dass eine ‚Dummie-Fragen‘-Nutzung von KI-Sprachmodellen unter der Voraussetzung einer kritischen Prüfung der Inhalte, wie ich das in diesem Fall gemacht habe, gar kein Problem ist. Warum ordne ich solch eine Herangehensweise dann trotzdem als Fail ein? Während ich Halluzinationen tatsächlich nicht als wirkliches Problem einordne, sofern man sich des technischen Hintergrunds und der Funktionsweise der Tools bewusst ist, gilt das umso mehr bei der vermeintlichen Ausgewogenheit von KI-generierten Inhalten. Das ist der Grund für die Einordnung solcher Aktivitäten als Fail. Auf den ersten Blick scheint beim Output Ausgewogenheit absolut gegeben zu sein. Denn Antworten von KI-Sprachmodellen lassen sich vor allem daran so gut erkennen, dass sie sehr oft ein „auf der einen Seite“ und „auf der anderen Seite“ beinhalten. Wenn ich hier jedoch näher hinschaue, dann stelle ich zunehmend fest, dass diese Ausgewogenheit sich in einem klar gesteckten Rahmen bewegt. Was darüber hinausgeht oder was ganz andere Ideen sind, taucht nicht auf. Ich denke, dass solche Antworten einen dann – oft wahrscheinlich auch unbewusst – durchaus prägen können und dass andere Sichtweisen dann gar nicht mehr in den Blick genommen werden.

Mein Learning aus diesem Fail ist deshalb, dass ich gerade bei Themen, die mir noch sehr neu sind und zu denen ich noch Orientierung suche, lieber bzw. mindestens ergänzend auf mein persönliches Lernnetzwerk setze als auf ein KI-Sprachmodell. Damit bekomme ich natürlich auch Antworten mit einer bestimmten inhaltlichen Ausrichtung. Allerdings kann ich das dann viel besser für mich einordnen und mir z. B. ganz bewusst Texte von Menschen suchen, die aus jeweils unterschiedlichen Perspektiven schreiben.

6. Halbwissen-Chats: Meine Vorarbeit – was meinst du dazu?

In eine ähnliche Richtung geht mein „Halbwissen-Fail“. Er ist mir passiert, als ich im Sommer einen Blogbeitrag zum Wertequadrat von Friedemann Schulz von Thun schrieb. In meinem Kopf hatte ich das Wertequadrat aber fälschlicherweise Paul Watzlawick zugeordnet. Mein Prompt war dann, ob eine bestimmte Zuordnung von Tugenden gemäß dem Wertequadrat von Paul Watzlawick stimmig sei. Als Antwort bekam ich, dass und warum die Zuordnung gemäß dem Wertequadrat von Paul Watzlawick stimmig sei. Als mir mein Fehler später auffiel und ich zum Test noch einmal nachhakte, ob mit meinem Inhalt wirklich alles korrekt sei, wurde das erneut bestätigt. Erst als ich explizit nachfragte, ob das Wertequadrat tatsächlich von Paul Watzlawick stamme, wurde das verneint und mit Friedemann Schulz von Thun die richtige Person genannt.

Der Fail entstand also deshalb, weil KI-Sprachmodelle als Bestätigungsmaschine wirken. Das bedeutet: Wenn ich in einem Prompt etwas teile, was ich erarbeitet habe und frage, ob das so stimmt, dann ist die Antwort tendenziell eine Bestätigung. Insbesondere Aspekte, die ich im Prompt nicht direkt angesprochen habe, werden von dem KI-Sprachmodell dann weiter so geschrieben, statt korrigiert. Für mich bedeutet das, dass ich in fehlerhaften Auffassungen bestärkt werde.

Ich nehme mir aus dieser Erfahrung mit, dass ich bei KI-Sprachmodellen gerade bei Halbwissen vorsichtig sein sollte bzw. dass es grundsätzlich hilfreich ist, nicht nur KI-generierte Inhalte, sondern auch die eigenen Annahmen im Kopf immer wieder kritisch zu prüfen.

7. Uninspirierte Prompts: Schreibe mir … !

Zu meiner Arbeit gehört die Konzeption und Durchführung von Lernangeboten. In der Vorbereitung erhalte ich hierfür regelmäßig die Anfrage von den Auftraggebern, doch bitte einen kurzen Text für die Ausschreibung beizusteuern. Ich habe dazu einige Male ein KI-Sprachmodell genutzt. Als Fail bewusst wurde mir diese Nutzung, als die gegenteilige Variante auftrat: Ein Auftraggeber fragte mich nicht nach einem Ausschreibungstext, sondern sandte mir einen Entwurf zu und fragte, ob ich damit einverstanden sei. Ich fand den Text miserabel – und zwar vor allem deshalb, weil mir sofort klar war, dass ChatGPT oder ein anderes KI-Sprachmodell das generiert haben musste. Enthalten war die typische vermeintliche Ausgewogenheit bei der inhaltlichen Darstellung, gepaart mit immer wieder übertriebenen und damit unpassenden Beschreibungen (= ein großartiges Erlebnis, eine ausgezeichnete Referentin, ein spannendes Angebot …). Je mehr sich KI-Sprachmodelle durchsetzen, desto mehr liest man im Internet solche Texte.

Mein Learning daraus ist, dass ich keine Texte von einem KI-Sprachmodell generieren lassen und teilen sollte, von denen ich selbst genervt wäre. Und dass es deshalb unbedingt gilt, uninspirierte Prompts zu vermeiden. Als solche fasse ich Prompts, die wirklich nur die nötigsten Angaben beinhalten, sodass das jeweils genutzte KI-Sprachmodell dann sehr in seinem üblichen Stil bleibt.

Ich bin inzwischen deshalb dazu übergegangen, mir mehr Gedanken über das Prompting zu machen, wenn ich solche Aufgaben wie die Formulierung einer Veranstaltungsankündigung mit KI-Unterstützung mache. Ich schreibe also etwas über den gewünschten Stil, was mir inhaltlich wichtig ist oder was genau die Zielgruppe ist. Zugegebenermaßen ist das dann nicht wirklich mehr eine Zeitersparnis, aber KI hilft dabei, dass ich solche Aufgaben erledige, anstatt sie vor mich herzuschieben.

Fazit

Für mich war die Reflexion dieser Fails sehr aufschlussreich. Mein wichtigstes Learning ist, dass ich dadurch viel besser die Perspektive von Lernenden nachvollziehen kann. Ich habe gelernt, dass blödsinnige KI-Nutzung bei Lernenden in sehr vielen Fällen sehr wahrscheinlich nicht Unkenntnis oder Böswilligkeit, sondern den Umständen geschuldet ist. Wäre ich in einer Situation, in der ich sehr fremdbestimmt lernen müsste und in der von mir ständig Output in Form von Texten zu Themen verlangt würde, die mir meist relativ egal sind, dann würde ich wahrscheinlich sehr viel häufiger, als es mir jetzt passiert, der Versuchung der Vereinfachung mithilfe von KI-Tools erliegen. Wenn man sich das eingesteht, dann eröffnet sich ein ganz anderer Blick auf die KI-Debatte im Bildungskontext. Es steht dann nämlich nicht mehr im Fokus, dass man mehr kontrollieren und verbieten muss, sondern man versteht, dass der Blick mehr auf die strukturellen Rahmenbedingungen und auf vertrauensvolle Beziehungen gelegt werden muss, um gutes Lernen zu ermöglichen. Als Übung für KI-Workshops mit anderen Lehrenden nehme ich deshalb mit, sich öfter erst einmal an die eigene Nase zu fassen und über die eigenen KI-Fails als „lernende Lehrende“ zu reflektieren, bevor man überlegt, wie damit gegenüber Lernenden umgegangen werden sollte.

Vielleicht hast du Lust im Anschluss an diesen Blogbeitrag auch über deine KI-Nutzung zu reflektieren. Ich bin gespannt darauf, von welchen KI-Fails andere Menschen berichten können und was ihre Learnings daraus sind.


👉 Lust auf mehr?

Gerne unterstütze ich bei der Konzeption und Durchführung von Veranstaltungen und/ oder der Gestaltung von Bildungsmaterialien. Ich freue mich über deine Anfrage.
Monatliche Impulse zu guter Bildung in einer zunehmend digital geprägten Welt erhältst du mit meiner Edumail, die du kostenfrei abonnieren kannst.


Beitrag merken & teilen

Hier kannst Du dir den Link zum Beitrag kopieren - beispielsweise um ihn für Dich zu speichern oder mit anderen zu teilen. Wenn Du den Link in den Suchschlitz im Fediverse einfügst, kannst Du den Beitrag von dort aus kommentieren. Die Kommentare erscheinen dann nach Freigabe hier auf der Website.

Beitrag weiternutzen

Der Beitrag steht unter der Lizenz CC BY 4.0. Du kannst ihn gerne unter Angabe des Lizenzhinweises offen weiternutzen.

1 Kommentar

@nele Schöne Zusammenfassung, in der ich mich auch finden konnte. Die vielen Male, in denen ich dem Sprachmodell die Gelegenheit zur Hilfe gab, musste ich selbst dann doch immer zu viel selbst beisteuern, so dass am Ende doch keine wesentliche Arbeitserleichterung heraussprang.

Kommentierung ist via Fediverse möglich.