#20: KI-generierte Videos als Denkanstoß beim Lernen

Dieser Artikel ist eine Dokumentation von meinem 20. Experiment bei Kreation 2.0 – meiner Kreativitäts-Challenge im Kontext von KI. Ich habe es am 16. März 2025 durchgeführt und am 17. März aufgeschrieben.

Idee

Mit der Möglichkeit von KI-generierten Videos sehe ich grundsätzlich das Potential, bestimmte Konzepte und Ideen als Mini-Clip darzustellen, um dann darüber gemeinsam reflektieren zu können. Insbesondere ist das sicherlich im Online-Lernen hilfreich, aber als mediale Unterstützung durchaus auch beim Lernen vor Ort. Vor diesem Hintergrund wollte ich bei meinem heutigen Experiment Mini-Videoclips als Denkanstoß im Kontext von Open Educational Resources (OER) generieren. Für mich war das zugleich eine erste, intensivere Beschäftigung mit KI-Videogenerierungs-Tools. Ich habe dazu Sora von Open AI genutzt.

Vorgehen

Schritt 1: Ich hatte auf Social Media schon jede Menge Videos gesehen, die andere Menschen mit Sora generiert und geteilt hatten. Darum bin ich mit einer relativ großen Erwartungshaltung an das Tool herangegangen. Mein erster Schritt war deshalb nicht, zunächst einmal technisch ausprobieren, was überhaupt geht, sondern ich habe mir direkt überlegt, welche Videos ich gerne haben will.

Da ich immer wieder Lernangebote zu Open Educational Resources (OER) gestalte, war das als Thema schnell gefunden. Vor allem auch, weil ich mir hier sehr schöne Denkanstoß-Videos vorstellen konnte, die mit Annahmen, die traditionell in den Köpfen sind, brechen:

  1. Wenn man normalerweise Dinge teilt, dann hat man am Ende weniger. Wenn man aber Bildung und Wissen teilt, dann haben alle mehr.
  2. Wenn normalerweise viele Menschen zusammenarbeiten, dann heißt es, dass viele Köche den Brei verderben. Bei OER sind vielfältige Perspektiven grundlegend für gute Inhalte.
  3. Wenn man normalerweise etwas abgibt, dann fällt das schwer. Bei OER lässt sich auch Unfertiges mit Freude teilen, weil man sich überraschen lassen kann, was daraus entsteht.

Schritt 2: Mein nächster Schritt war es, diese Ideen in Mini-Video-Szenen zu übersetzen. Das war relativ naheliegend. Ich habe mir zu jeder Annahme eine typische Szene überlegt:

  1. Ein Kind, das immer mehr Süßigkeiten bekommt, während es teilt.
  2. Viele Köche, die gemeinsam eine köstliche Suppe zubereiten.
  3. Ein zum Abschied glücklich winkender Mensch.

Schritt 3: Ich habe Sora als KI-Videogenerierunstool geöffnet und mich mit den Einstellungen vertraut gemacht. Grundsätzlich ist das Tool sehr selbsterklärend:

  • Es lässt sich ein Prompt (am besten auf englisch) formulieren.
  • Es lassen sich Vorgaben zum Format machen. Hier habe ich mich für Hochformat entschieden. Da ich die Videos noch nicht professionell nutzen wollte, konnte ich auch die Auflösung gering halten.
  • Die Dauer kann festgelegt werden. Hier habe ich kurze Clips von 5 Sekunden eingestellt.
  • Ich habe eingestellt, dass immer nur ein Video generiert wird, um Credits zu sparen.

Schritt 4: Meine ersten Versuche waren so, dass ich möglichst umfangreiche Prompts formuliert habe – inklusive Angaben zur Kamera-Einstellung. Das hatte ich als häufigen Tipp bei Sora-Anleitungen gelesen. Ich habe dazu ChatGPT und DeepL mit einbezogen – und kam so zum Beispiel zu diesem Prompt für das ‚Viele Köche verderben nicht den Brei!‘-Video: „A fairytale scene with soft, golden-hour lighting to create a warm and hopeful atmosphere. The camera moves in a smooth, continuous circular motion around a group of human friendly cooks,. They are joyfully stirring together in a large, steaming soup pot, creating a magical and delicious soup. Sparkling, fragrant aromas float into the air as the ingredients swirl harmoniously. The seamless camera movement ensures a perfect looping effect, making the scene feel endless and magical.

Das hier war das Ergebnis:

Das war noch eines der besseren Videos. Oft kam auch noch größerer Quatsch dabei heraus – trotz eigentlich sehr genauem Prompting. Zugleich war das ganze sehr aufwändig.

Schritt 5: Im nächsten Schritt bin ich den ‚Umweg‘ über Midjourney gegangen. Hier habe ich immer ein Bild (im Pixar 3D Stil) generiert, das dann bei Sora hochgeladen, das Storyboard geöffnet, das erste Bild gelöscht – und konnte dann den erstellten Text zum Bild für das Video ändern/ ergänzen.

Das hier waren meine ursprünglichen Bilder von Midjourney:

Diese Videos entstanden daraus:

OER ist wenn durch Teilen mehr entsteht!
OER ist, wenn viele Beteiligte mehr erreichen!
OER ist, wenn man auch Unfertiges mit Freude loslassen kann.

(Der große Unterschied zu den ursprünglichen Midjourney-Bildern erklärt auch schon, warum ich diese erst hochlud, dann aber nicht mehr direkt nutzte, sondern aus dem Storyboard löschte. Ansonsten wird das ursprüngliche Bild animiert, was dann aber sehr verwirrend ist, wenn das Video sehr anders ist.)

Diese Ergebnisse fand ich schon deutlich brauchbarer als die ersten Versuche. Vor allem war der Aufwand auch deutlich geringer.

Schritt 6: Im letzten Schritt habe ich noch die vorgefertigten Stile von Sora ausprobiert – konkret den ‚Archive‘-Stil. Damit spart man sich ein umfangreiches Prompting und kann sich darauf beschränken, was auf dem Video sein soll. Man generiert damit aber natürlich sehr viel weniger selbst. Die Videos wirken allerdings professioneller.

Hier ist das Beispiel für meinen ‚Zum Abschied glücklich winken‘-Clip:

Ein Mann winkt glücklich zum Abschied im Archive Stil.

Ergebnis und Reflexion

Ergebnis dieses Experiments sind vor allem eigene Learnins zu Videogenerierung mit Sora, die ich folgendermaßen zusammenfassen würde:

  1. Für gute Ergebnisse bei einer sehr offenen und eigenen Gestaltung braucht es eine Mischung zwischen zufälliges Glück und Können. Das bedeutet, dass man erstens immer einplanen sollte, ein paar Videos zu generieren, damit etwas Brauchbares darunter ist. Zweitens braucht es Video-Wissen z.B. zu Kameraeinstellungen, wenn das Ergebnis wirklich gut werden soll, die ich kaum habe.
  2. Ein guter Kompromiss ist eine Videogenerierung über Bilder: Das funktioniert niederschwellig und die Ergebnisse sind in Ordnung. Noch würde ich sie aber wahrscheinlich nicht in Lernangeboten einsetzen, da sie wahrscheinlich eher vom eigentlichen Thema ablenken würden. Statt um den inhaltlichen Denkanstoß würden alle dann über KI-Videogenerierung reflektieren ;-) Das wird aber sicherlich mit zunehmend besserer Qualität und einem Gewöhnungseffekt anders werden.
  3. Für schnelle und professionelle Video-Ergebnisse sind die Preset-Stile von Sora hilfreich, werden sich aber wahrscheinlich mit der Zeit abnutzen und nervig werden (oder vielleicht auch Meme-Charakter entfalten – wir werden sehen)


Beitrag weiternutzen und teilen

Dieser Beitrag steht unter der Lizenz CC BY 4.0 und kann somit gerne offen weitergenutzt und geteilt werden. Hier kannst du dir den Beitragslink und/oder den Lizenzhinweis kopieren. Wenn du den Beitragslink in das Suchfeld im Fediverse (z.B. bei Mastodon) eingibst, wird er dir dort angezeigt und du kannst ihn kommentieren.


Erschienen in der Kategorie:
Anregungen zum Weiterlesen