Fertig gebloggt (und viel gelernt!)

Heute habe ich einige Zeit für den Blogbeitrag zu meiner Einschätzung zu Custom GPTs aufgewendet, den ich mir gestern Abend überlegt hatte. Ich mag den entstandenen Stil: Er ist eine Mischung aus lautem Nachdenken, offenem Dokumentieren von Experimenten und Schlussfolgerungen daraus. Solch eine Herangehensweise, bei der ich auf Basis von konkretem Ausprobieren zu einer Einschätzung komme und diese dann teile, finde ich in der KI-Debatte sehr wertvoll.

Beim Bloggen lerne ich auch selbst immer noch dazu. Zum Beispiel kann ich jetzt endlich die Abkürzung GPT erklären. (= GPT steht für Generative Pretrained Transformer. Es ist der Name eines großen KI-Sprachmodells, das von OpenAI entwickelt wurde. Das Modell generiert Inhalte (= generative), wurde mit massiven Datenmengen trainiert (= pretrained) und basiert auf der Transformer-Architektur (= transformer), die besonders effektiv bei der Entwicklung von KI-Sprachmodellen ist, weil sie alle Wörter einer Eingabe gleichzeitig berücksichtigt und Beziehungen zwischen ihnen herstellt.)

Es ist gerade sehr schön, durch die Sommerpause noch recht viel Zeit zum eigenen Lernen, Erkunden und Bloggen zu haben. Nächste Woche geht es dann wieder mit den ersten Veranstaltungen los.

Das Beitragsbild hat nichts mit dem sonstigen Inhalt zu tun, sondern es entstand bei weiteren Experimenten mit Flux. Die Kombination aus ‚close-up‘ und ‚cartoon look‘ ist cool.

Beitrag weiternutzen und teilen

Dieser Beitrag steht unter der Lizenz CC BY 4.0 und kann somit gerne offen weitergenutzt und geteilt werden. Hier kannst du dir den Beitragslink und/oder den Lizenzhinweis kopieren. Wenn du den Beitragslink in das Suchfeld im Fediverse (z.B. bei Mastodon) eingibst, wird er dir dort angezeigt und du kannst ihn kommentieren.


Erschienen in der Kategorie:
Anregungen zum Weiterlesen