#!/bin/bash # 1. Starte den Ollama-Server im Hintergrund /bin/ollama serve & OLLAMA_PID=$! # 2. Warte, bis die API erreichbar ist echo "Warte darauf, dass der Ollama-Server hochfährt..." while ! curl -s http://localhost:11434/api/tags > /dev/null; do sleep 2 done echo "Ollama ist erreichbar! Prüfe/Lade das Modell 'granite4:tiny-h'..." # 3. Lade das Modell herunter (falls noch nicht vorhanden) ollama pull granite4:tiny-h echo "Modell ist einsatzbereit!" # 4. Halte den Container am Laufen, indem der Ollama-Prozess im Vordergrund gehalten wird wait $OLLAMA_PID