21 lines
575 B
Bash
21 lines
575 B
Bash
|
|
#!/bin/bash
|
||
|
|
|
||
|
|
# 1. Starte den Ollama-Server im Hintergrund
|
||
|
|
/bin/ollama serve &
|
||
|
|
OLLAMA_PID=$!
|
||
|
|
|
||
|
|
# 2. Warte, bis die API erreichbar ist
|
||
|
|
echo "Warte darauf, dass der Ollama-Server hochfährt..."
|
||
|
|
while ! curl -s http://localhost:11434/api/tags > /dev/null; do
|
||
|
|
sleep 2
|
||
|
|
done
|
||
|
|
|
||
|
|
echo "Ollama ist erreichbar! Prüfe/Lade das Modell 'granite4:tiny-h'..."
|
||
|
|
|
||
|
|
# 3. Lade das Modell herunter (falls noch nicht vorhanden)
|
||
|
|
ollama pull granite4:tiny-h
|
||
|
|
|
||
|
|
echo "Modell ist einsatzbereit!"
|
||
|
|
|
||
|
|
# 4. Halte den Container am Laufen, indem der Ollama-Prozess im Vordergrund gehalten wird
|
||
|
|
wait $OLLAMA_PID
|