Anleitung: Paperless-GPT mit Ollama auf einem Desktop-Rechner unter WSL einrichten #55
Replies: 2 comments 3 replies
-
Für OCR auf dem Host ollama pull minicpm-v ausführen. VISION_LLM_PROVIDER: 'ollama' # Optional für OCR
VISION_LLM_MODEL: 'minicpm-v' # Optional für OCR Danach den Stack neu starten: docker compose down
docker compose up -d Die Ergebnisse sind ziemlich gut. Kann man super mit arbeiten. Wer gute / bessere Ergebnisse möchte, braucht eben potente Hardware. Da lässt sich nichts dran rütteln. |
Beta Was this translation helpful? Give feedback.
-
Danke für die Anleitung. Gibt es Erfahrungen wie performant sowas auf einer RTX 3060ti ist? |
Beta Was this translation helpful? Give feedback.
-
Anleitung: Paperless-GPT mit Ollama auf einem Desktop-Rechner unter WSL einrichten
1. Voraussetzungen
2. Schritt-für-Schritt-Anleitung
1. WSL installieren
wsl --install
2. NVIDIA Container Toolkit installieren
Installiere die erforderlichen NVIDIA-Treiber:
Öffne die WSL-Distribution und folge der Anleitung auf [NVIDIA Container Toolkit Install Guide](https://docs.nvidia.com/datacenter/cloud-native/container-toolkit/latest/install-guide.html).
Kurzfassung für Ubuntu in WSL:
3. Docker installieren und Docker Desktop für WSL aktivieren
4. Ollama in WSL installieren
curl -fsSL https://ollama.com/install.sh | sh
5. Modell mit Ollama herunterladen
llama2
herunter:6. Docker Compose-Datei vorbereiten
docker-compose.yml
:7. Docker-Netzwerk erstellen
8. Docker-Container starten
3. Hinweise
Warum Ollama lokal installiert?
Damit das Modell nur einmal heruntergeladen wird und beim Neustart des Containers nicht erneut heruntergeladen werden muss.
GPU-Support prüfen:
Teste den Zugriff auf die GPU im Container:
Logs prüfen:
Fertig! Dein Paperless-GPT-System ist nun bereit.
Beta Was this translation helpful? Give feedback.
All reactions