Installation Ollama und OpenWebUI
1. Verzeichnisstruktur vorbereiten
Alle Containerdaten liegen unter /opt/docker, damit System und Daten sauber getrennt bleiben:
Optional Zugriffsrechte setzen:
2. Docker-Compose Datei
Pfad: /opt/docker/docker-compose.yml
3. Container starten
Status prüfen:
-
Ollama-API →
http://<Server-IP>:11434 -
OpenWebUI →
http://<Server-IP>:3000
4. Modelle installieren
Ollama lädt Modelle nach Bedarf.
Installation erfolgt z. B. über:
Verwendete LLMs in dieser Umgebung:
-
GPT-OSS:20b → Hauptmodell (groß, sehr leistungsfähig)
-
Llama 3.1:12b
-
Mistral:7b
-
Gemma3:12b
-
DeepSeek-R1:8b
-
Qwen3:14b
Optional kannst du auch in OpenWebUI für jedes Modell eigene Presets/Workspaces definieren.
5. Update der Container
6. Backup-Hinweis
Da alle persistenten Daten in /opt/docker/ollama und /opt/docker/open-webui liegen, reicht ein Backup dieser Ordner.