Entdeckung: Ollama

Ich habe heute Ollama entdeckt – eine wirklich super einfache Möglichkeit, sich ein LLM lokal auf dem eigenen Rechner zu installieren. Ich habe es mit Mixtral und dem neuen EU-Modell Teuken-7B versucht. Beides klappte problemlos. (Mein Laptop ist nicht super leistungsstark, darum sind Chats etwas langsam.)

So bin ich vorgegangen:

  1. Ollama installieren
  2. Terminal aufrufen und das gewünschte Sprachmodell installieren.
  3. Sprachmodell aufrufen und nutzen

Eine genaue Anleitung werde ich im Rahmen meiner ‚Kalte Dusche‘-Lernreise veröffentlichen – und bis dahin sicherlich noch einige Erkundungen mehr machen.


Beitrag merken & teilen

Hier kannst Du dir den Link zum Beitrag kopieren - beispielsweise um ihn für Dich zu speichern oder mit anderen zu teilen. Wenn Du den Link in den Suchschlitz im Fediverse einfügst, kannst Du den Beitrag von dort aus kommentieren. Die Kommentare erscheinen dann nach Freigabe hier auf der Website.

Beitrag weiternutzen

Der Beitrag steht unter der Lizenz CC BY 4.0. Du kannst ihn gerne unter Angabe des Lizenzhinweises offen weiternutzen.

6 Kommentare

Ich war einfach neugierig darauf, wie dieses EU-finanzierte Modell so ist und fand es interessant, dass bewusst insbesondere auch auf nicht-englischsprachige Texte gesetzt wurde als Datenbasis. Ich habe bis jetzt noch zu wenig getestet, um eine Einschätzung angeben zu können, wie gut das Modell auch im Vergleich zu anderen ist.

Kommentierung ist via Fediverse möglich.