Files
DocuMind-G4/init_ollama.sh
2026-03-13 18:36:56 +01:00

21 lines
575 B
Bash
Executable File

#!/bin/bash
# 1. Starte den Ollama-Server im Hintergrund
/bin/ollama serve &
OLLAMA_PID=$!
# 2. Warte, bis die API erreichbar ist
echo "Warte darauf, dass der Ollama-Server hochfährt..."
while ! curl -s http://localhost:11434/api/tags > /dev/null; do
sleep 2
done
echo "Ollama ist erreichbar! Prüfe/Lade das Modell 'granite4:tiny-h'..."
# 3. Lade das Modell herunter (falls noch nicht vorhanden)
ollama pull granite4:tiny-h
echo "Modell ist einsatzbereit!"
# 4. Halte den Container am Laufen, indem der Ollama-Prozess im Vordergrund gehalten wird
wait $OLLAMA_PID