# 🐳 Configuration Multi-Ollama via Docker (pour Ragflow multi-modĂšle) Ce fichier te guide pour lancer plusieurs instances d’Ollama via **Docker Compose**, afin d’avoir **un modĂšle dĂ©diĂ© par rĂŽle** (chat, vision, embedding, rerank). Cela permet : ✅ D’éviter que les modĂšles se dĂ©chargent entre eux ✅ D’avoir une instance stable pour chaque rĂŽle dans **Ragflow Web** ✅ D’exploiter pleinement ta machine (ex : H100) --- ## ⚙ Structure recommandĂ©e | RĂŽle | ModĂšle Ollama | Port | |-------------|----------------------------------------|------| | Chat | `deepseek-r1:70b-llama-distill-q8_0` | 11434 | | Vision | `llava:34b-v1.6-fp16` | 11435 | | Embedding | `nomic-embed-text` | 11436 | | Reranker | `bge-reranker-v2-m3` | 11437 | --- ## 📁 Arborescence ```bash multi-ollama/ ├── docker-compose.yml ├── ollama-chat/ │ └── Modelfile (optionnel) ├── ollama-vision/ │ └── Modelfile ├── ollama-embed/ │ └── Modelfile └── ollama-rerank/ └── Modelfile ``` --- ## đŸ› ïž docker-compose.yml (exemple) ```yaml version: '3.8' services: ollama-chat: image: ollama/ollama ports: - "11434:11434" environment: - OLLAMA_HOST=0.0.0.0:11434 volumes: - ollama-chat-data:/root/.ollama restart: unless-stopped ollama-vision: image: ollama/ollama ports: - "11435:11434" environment: - OLLAMA_HOST=0.0.0.0:11434 volumes: - ollama-vision-data:/root/.ollama restart: unless-stopped ollama-embed: image: ollama/ollama ports: - "11436:11434" environment: - OLLAMA_HOST=0.0.0.0:11434 volumes: - ollama-embed-data:/root/.ollama restart: unless-stopped ollama-rerank: image: ollama/ollama ports: - "11437:11434" environment: - OLLAMA_HOST=0.0.0.0:11434 volumes: - ollama-rerank-data:/root/.ollama restart: unless-stopped volumes: ollama-chat-data: ollama-vision-data: ollama-embed-data: ollama-rerank-data: ``` --- ## 🚀 Commandes utiles Lancer les 4 instances : ```bash cd multi-ollama docker compose up -d ``` VĂ©rifier les logs : ```bash docker compose logs -f ``` ArrĂȘter : ```bash docker compose down ``` --- ## 🔗 Exemple de configuration dans Ragflow Web | RĂŽle | Base URL Ă  configurer | |------------|--------------------------------------| | Chat | `http://localhost:11434` | | Vision | `http://localhost:11435` | | Embedding | `http://localhost:11436` | | Reranker | `http://localhost:11437` | --- ## 💡 Astuces - Chaque conteneur a **sa propre cache/modĂšle** (`.ollama`) - Tu peux prĂ©-charger les modĂšles avec : ```bash docker exec -it ollama pull mistral ``` Souhaites-tu une version **avec les modĂšles directement prĂ©chargĂ©s via Modelfile** ?