Pädagogische Orientierung im KI-Hype

Wenn ich mein eigenes Lernen seit der Veröffentlichung des Tools ChatGPT Ende November 2022 beobachte, so stelle ich fest, dass ich leider – wie wahrscheinlich sehr viele andere auch – zu großen Teilen in einem KI-Hype mitgeschwommen bin. Das lag vor allem daran, dass die Veröffentlichung von ChatGPT mit einem Schlag kam und mir sehr plötzlich sehr viel mehr ermöglichte, als ich es von früheren Tools kannte. Meine Neugierde und Faszination angesichts dieser technischen Möglichkeiten überwog damit einer kritischen Einordnung.

Neugieriges Ausprobieren ist aber zum Glück zugleich immer auch ein guter Antrieb, um etwas genauer wissen und verstehen zu wollen. Das habe ich in den letzten Wochen mehr und mehr nachgeholt. Wenn ich jetzt auf Veröffentlichungen oder Aktivitäten blicke, die ich vor ein paar Wochen (oder selbst noch Ende letzter Woche wie z.B. bei dieser Edunautika-Einreichung) gemacht habe, dann würde ich vieles davon jetzt anders formulieren. Zum Teil ärgere ich mich darüber, zum anderen Teil freue ich mich aber auch, weil sich genau an solchen veränderten Einschätzungen ja zeigt, dass ich mit meinem eigenen Lernen offensichtlich voran komme.

In diesem Sinne ist auch dieser Blogbeitrag nicht abschließend zu sehen, sondern eher als ‚lautes Nachdenken‘ und insbesondere auch eine Einladung zur Diskussion und zum gemeinsamen Weiterlernen. Ich formuliere darin 5 ‚Regeln‘, wie ich in meiner pädagogischen Arbeit mit dem KI-Hype zukünftig umgehen möchte.

1. KI erklären und entmystifizieren

Ich versuche den Begriff ‚KI‘ in Ankündigungen von Lernangeboten oder in meinen eigenen Veröffentlichungen zu vermeiden bzw. mindestens ergänzend konkret darzustellen, worum es mir genau geht.

Historisch gesehen, war KI seit den 50er Jahren immer das, was gerade möglich war bzw gerade noch nicht. Wahrscheinlich niemand würde heutzutage z.B. die Technik eines Taschenrechners als KI bezeichnen. Als aber in den 1950er Jahren die ersten Maschinen entwickelt wurden, die komplexe Aufgaben schnell ausrechnen konnten, was zuvor Menschen getan hatten, galten diese als KI.

Auch in der heutigen Debatte wird der Begriff KI fast nie beschreibend oder erklärend verwendet, sondern in den meisten Fällen, um den Anschein zu erwecken, dass es um coole und hippe Dinge geht. In diesem Sinne ist KI ein Marketingbegriff. Solch ein Marketing kann sich durchaus auch auf den pädagogischen Bereich erstrecken, wenn sich Pädagog*innen z.B. als ‚AI Learning Facilitator‘ bezeichnen. Auch ich habe solch ein ‚Marketing‘ eingesetzt und Aktivitäten von mir entsprechend betitelt, weil Lernangebote oder Inhalte mit KI im Namen plötzlich sehr gefragt waren.

Häufig wird der Begriff KI auch als Sammelbegriff und damit unpräzise verwendet, anstatt direkt zu sagen, dass es z.B. um eine ganz bestimmte Anwendung geht. In diesem Fall ist die Verwendung des Begriffs KI ähnlich, wie die Verwendung des Begriffs ‚digitale Bildung‘. Man weiß vage, dass man darüber sprechen will, wie Lernen ‚mit Strom‘ funktionieren kann, aber worum es genau gehen soll, muss man dann erst noch definieren … Bei KI ist die Verwendung als Sammelbegriff vor allem deshalb ein Problem, weil sie unbewusst zur Mystifizierung von Technologie beiträgt und den KI-Marketing Hype unterstützt. Beides steht im Widerspruch zu guter Bildung.

Besser als die Ankündigung „Wie können wir KI zum Lernen nutzen?“ ist in den meisten Fällen wahrscheinlich die Ankündigung: „Wie können wir Sprachmodelle wie ChatGPT zum Lernen nutzen?“ Wenn man über ‚KI‘ übergreifend, d.h. wie über ‚digitale Bildung‘ lernen möchte, dann sollte man mindestens aufpassen, dass man im Rahmen des Lernangebots klärt, worum es eigentlich genau gehen soll.

2. Klügere Menschen statt möglichst menschenähnliche Maschinen

Bei praxisorientierten Lernangeboten zum Umgang mit neu entwickelten Technologien wie aktuell z.B. dem Sprachmodell ChatGPT orientiere ich darauf, dass Lernende Maschinen bestmöglich für ihr Lernen nutzen können, d.h. durch die Maschinen selbst klüger werden. Das ist zugleich auch mein eigenes Lernziel als lernende Lehrende.

Technologie ist dann hilfreich, wenn sie Menschen unterstützt – nicht, wenn versucht wird, sie so zu gestalten, dass sie möglichst menschenähnlich ist bzw. perspektivisch Menschen ersetzen soll.

Pädagogisch betrachtet kann es vor diesem Hintergrund beispielsweise hilfreich sein, wenn sich Lernende einen Text von einer Anwendung wie ChatGPT korrigieren oder zusammenfassen lassen. So können sie ihn schneller und besser erfassen und es ist mehr Raum, um darüber zu diskutieren. Weiter ist es z.B. möglich, Routineaufgaben an Maschinen auszulagern, einen schnellen Überblick zu einem Thema zu bekommen oder Zufalls-Anstupser zum Nachdenken zu erhalten. All das sind Möglichkeiten, wie Lernen unterstützt werden kann. Entweder weil es direkt im Lernprozess hilft oder weil es durch eine zeitliche Ersparnis Raum zum Lernen schafft, der sonst nicht in diesem Umfang vorhanden wäre.

Falsch wäre es jedoch, Lernenden ChatGPT als fast schon menschenähnliches Gegenüber oder gar als ‚persönlichen Freund‘ anzupreisen. Denn in diesem Fall verwischt die Grenze zwischen Mensch und Maschine. Die Inhalte, die die Maschine ausspuckt, können dann nicht mehr als das eingeordnet werden, was sie sind: eine anhand von Wahrscheinlichkeiten gestaltete Zusammenstellung von Wörtern basierend auf dem einprogrammierten Erkennen von Satzstrukturen ausgelesen aus riesigen Datenmengen. Wenn Menschen das nicht mehr erkennen können, werden sie perspektivisch dümmer. (Und gesamtgesellschaftlich gesehen sorgen menschenähnliche Maschinen sehr wahrscheinlich nicht dafür, dass unser Umgang miteinander menschlicher wird – sondern eher, dass Menschen auch andere Menschen immer mehr wie Maschinen behandeln.)

Um die Verwischung von Mensch und Maschine zu vermeiden, müssen wir vor allem bei der Formulierung von Aufgaben präzise sein. Nicht hilfreich sind beispielsweise Übungen wie: Hole dir eine Einschätzung von ChatGPT, lasse ChatGPT den Text interpretieren/ analysieren, frage nach, was die Meinung von ChatGPT dazu ist … All das sind Aufgaben, die das Tool nicht beherrschen kann, da es nur die wahrscheinlich am besten passenden Wörter zusammensetzt – ohne damit aber ein Anliegen zu verbinden. Als Pädagogin verwische ich damit die Grenze zwischen Mensch und Maschine.

3. Technologie ist menschengemacht

In Lernangeboten, in denen mehr Raum zu Reflexion ist, orientiere ich darauf, die menschliche Gestaltung der Technologie und die dahinter stehenden Interessen in den Blick zu nehmen und wo nötig zu hinterfragen.

Technologische Entwicklung ist kein natürlicher Prozess und auch eine ‚KI‘ entwickelt sich nicht von selbst. Es ist wichtig, den Kontext in den Blick zu nehmen:

  • Hinter dem KI-Hype stehen heutzutage in erster Linie Interessen der Vermarktung von jeweils aktuellen Tools und die Sicherung einer eigenen Monopol-Stellung von großen Tech-Unternehmen.
  • Die jeweiligen KI-Anwendungen werden entwickelt durch menschliche Arbeitskraft – sowohl von hoch-qualifizierten Tech-Workern als auch von Klick-Arbeiter*innen, wobei letztere meist mit miesen Arbeitsbedingungen konfrontiert sind.
  • Die Nutzung eines Tools wie ChatGPT ist sehr ressourcenintensiv.
  • Die Programmierung und ‚Fütterung‘ der Tools mit riesigen Datenmengen geschieht zu großen Teilen intransparent.
  • Es ist rechtlich ungeklärt, wem Inhalte gehören, die von Tools wie ChatGPT entwickelt werden: den Gestalter*innen der Inhalte, mit denen die Software gefüttert wurde, den Programmierer*innen oder Klick-Arbeiter*innen, den Eigentümern der Software, den Menschen, die Prompts schreiben und auswählen … und auch, wer Verantwortung dafür übernimmt.

Pädagogik soll Lernende zur Gestaltung der Zukunft ermächtigen. Darum gehört es zu guter Bildung dazu, diesen Kontext zu thematisieren: Warum wird Technologie so gestaltet und nicht anders? Wer agiert mit welchen Interessen? Was passiert genau in der Software und warum ist das nicht transparent, sondern kann nur vermutet werden? Welche Rolle will ich spielen? Welche Alternativen wären denkbar – beispielsweise eine technologische Entwicklung, die offen, transparent und demokratisch organisiert wird? (Ironischerweise übrigens genau solche Werte, die OpenAI sich ursprünglich mal auf die Fahnen geschrieben hatte).

Für Pädagog*innen kann es sehr herausfordernd sein, diesen Kontext zu thematisieren, weil es oft an Wissen fehlt und auch, weil es in Lernprozessen nur wenig Raum dafür gibt. Genau dafür braucht es die genannten eher reflektierenden Lernangebote. In meiner Arbeit möchte ich mich deshalb vor allem auch dafür einsetzen, solche Lernangebote zu stärken.

4. Technologie als möglicher Katalysator für Lernkultur-Veränderung

Ich nutze die Existenz von Tools wie ChatGPT, um weiter für ein gutes Lernen zu werben, das weder bei reinem Faktenlernen noch bei den so genannten 4K (Kollaboration, Kreativität, kritisches Denken und Kommunikation) stehen bleibt, sondern übergeordnet den Umgang mit Komplexität als Ziel hat.

Schon lange vor der Veröffentlichung von der Anwendung ChatGPT habe ich mich für ein Lernen eingesetzt, das ausgehend von den Interessen und Bedürfnissen der Lernenden gestaltet ist, gesellschaftliche Handlungsfähigkeit zum Ziel hat und vor diesem Hintergrund am besten projektorientiert und mit Selbstwirksamkeit gestaltet wird. Die Existenz von ChatGPT hat nun viele aufgeschreckt, weil traditionelle Lehre im Sinne von Wissensvermittlung und Abfragen damit an Grenzen stößt. Denn wie soll solch ein Lehren noch funktionieren, wenn eine entsprechende Frage einfach nur in ChatGPT eingegeben werden muss – und schon hat man eine wahrscheinlich sogar bessere Antwort, als man selbst in dieser Zeit hätte schreiben können? Vor diesem Hintergrund sehe ich Anwendungen wie ChatGPT durchaus als mögliche Katalysatoren für die Veränderung der Lernkultur.

Wie fast immer, wenn etwas als Katalysator wirken kann, lässt sich diese Verstärker-Wirkung auch umkehren. Das ist zum Beispiel der Fall, wenn neue technologische Möglichkeiten dazu genutzt werden, um Abfragen und Benoten zu optimieren, indem z.B. für ‚KI-Tools‘ geworben wird, die sehr schnell eine große Anzahl an Abfrage-Übungen erstellen können. Das kann im konkreten Fall hilfreich sein (z.B. wenn eine Englischlehrerin gerade mit ihren 5.-Klässler*innen den Unterschied zwischen Simple Present und Present Progressive erklären und mit ihnen üben will), das grundsätzlichere Ziel einer veränderten Lernkultur sollten wir dabei aber dann trotzdem nicht aus den Augen verlieren.

Zugleich zeigt die aktuelle technologische Entwicklung auch, dass die von mir und vielen anderen vertretene neue Lernkultur noch viel weiter vorangebracht werden muss. Um sich gestaltend in die heutige Gesellschaft einbringen zu können, müssen Lernende verstehen, wie die Gesellschaft funktioniert. Und da die Gesellschaft komplex ist, muss Lernen immer auch auf den Umgang mit Komplexität zielen. Es ist für mich eine spannende Frage, wie die schon sehr weit entwickelten Sprachmodelle wie ChatGPT dabei eine Hilfe sein können – etwa, weil sie Inhalte sehr schnell auffindbar machen können (oder besser darauf trainiert werden könnten) und beispielsweise auch Verbindungen zwischen unterschiedlichen Themen abgefragt und sichtbar gemacht werden könnten.

5. Technologische Entwicklung ist Teil von Pädagogik

Ich setze mich für die Thematisierung und Nutzung von (auch neu entwickelten) Technologien im Bildungskontext ein. Dazu braucht es mehr Freiraum zum gemeinsamen Lernen und Erkunden.

Wenn man die Diskussion um Tools wie ChatGPT in großen Teilen als KI-Hype einordnet, liegt auf den ersten Blick die Schlussfolgerung nahe, sich damit dann doch besser im pädagogischen Kontext gar nicht zu beschäftigen. Das hielte ich allerdings für falsch. Technologische Entwicklung ist in einer digitalisierten Gesellschaft sehr prägend. Wenn man diese Gesellschaft gestalten und wo nötig verändern will, muss man verstehen, wie sie funktioniert – und Technologie gehört hier untrennbar dazu. Verbieten und Aussperren kann deshalb keine Lösung sein. Dies gilt umso mehr, da – wie oben gezeigt – mit Tools wie ChatGPT auch durchaus sinnvolle pädagogische Anliegen vorangebracht werden können.

Darüber hinaus gilt: Nur wenn technologische Entwicklung in Lernprozessen aufgegriffen, genutzt und ausprobiert wird, kann sie selbst zu einem Lerngegenstand werden und kann technologische Gestaltbarkeit aufgezeigt werden. Nur so können auch Widersprüche in der technologischen Entwicklung sichtbar gemacht und reflektiert werden.

Damit das funktioniert, braucht es mehr Raum für Pädagog*innen um gemeinsam und von und mit anderen zu lernen. Ich versuche, in meinen Lernangeboten diesen Raum zu bieten. Und ich freue mich über alle Initiativen und Angebote, die in eine ähnliche Richtung wirken.

Danke (und Links zum Weiterdenken)

Zur Orientierung im KI-Hype sehr hilfreich war für mich vor allem der englischsprachige Hashtag „AIHype“, über den ich durch Christian Pietsch gestoßen bin, der unter anderem auf dieses sehr empfehlenswerte Porträt von Emily Bender (mit sehr viel Impulsen zum Nachdenken, warum wir die Grenze zwischen Mensch und Maschine nicht verwischen sollten) hinwies. Zur historischen Einordnung empfehle ich diesen ca. 30minütigen Vortrag von Kathrin Passig. Weitere hilfreiche Denkanstöße habe ich vor allem über Lisa Rosa erhalten – z.B. den Hinweis auf diesen Podcast zur menschlichen Arbeitskraft hinter ChatGPT – und vor allem auch ihr eigener Text: Too short, didn’t understand. Warum Literacy 2 für alle gebraucht wird.

Und Du?

Ich freue mich über Deine Einschätzung und bin gespannt auf mein und unser aller Weiterlernen 🙂


Beitrag merken & teilen

Hier kannst Du dir den Link zum Beitrag kopieren - beispielsweise um ihn für Dich zu speichern oder mit anderen zu teilen. Wenn Du den Link in den Suchschlitz im Fediverse einfügst, kannst Du den Beitrag von dort aus kommentieren. Die Kommentare erscheinen dann nach Freigabe hier auf der Website.