OLLAMA REST API

Zuerst installiere Ollama aus dem offiziellen Github-Repository.

Als nächstes benötigst du ein Modell. Du kannst auf ihrer Website nachsehen, welche Modelle verfügbar sind(Überprüfe vor der Installation ob dein System die erforderlichen Voraussetzungen erfüllt). Lade das gewünschte Modell herunter und führe dann folgenden Befehl aus:

    ollama pull llama3.2

Danach kannst du Ollama mit folgendem Befehl starten:

    ollama run llama3.2

In diesem Beispiel verwenden wir das Modell llama3.2