# Guide d'installation d'Ollama avec modèles sur un disque séparé Ce guide vous explique comment installer Ollama sur votre disque système Windows (C:) tout en stockant les modèles volumineux sur un autre disque pour économiser de l'espace. ## Pourquoi séparer Ollama et ses modèles? - Les modèles LLM peuvent occuper plusieurs dizaines de Go - Le disque système (C:) est souvent limité en espace - Les SSD secondaires ou disques durs offrent plus d'espace de stockage - Cette configuration permet d'optimiser l'espace disque tout en gardant de bonnes performances ## 1. Installation d'Ollama sur le disque principal 1. Téléchargez Ollama depuis [ollama.com/download/windows](https://ollama.com/download/windows) 2. Exécutez l'installateur avec les options par défaut (C:\Program Files\Ollama) 3. Laissez l'installation se terminer et le service démarrer ## 2. Arrêter le service Ollama Avant de modifier la configuration, arrêtez le service Ollama: 1. Ouvrez un terminal administrateur (clic droit > Exécuter en tant qu'administrateur) 2. Exécutez la commande: ```cmd net stop Ollama ``` ## 3. Créer le dossier de destination pour les modèles Choisissez un disque avec beaucoup d'espace libre (par exemple D:, E:, etc.): ```cmd mkdir D:\OllamaModels ``` ## 4. Configurer le stockage des modèles ### Méthode 1: Lien symbolique (recommandée) Cette méthode permet à Ollama de continuer à chercher les modèles au même endroit, mais Windows redirige vers le nouveau disque: ```cmd rmdir /s /q "C:\Users\%USERNAME%\.ollama\models" mklink /d "C:\Users\%USERNAME%\.ollama\models" "D:\OllamaModels" ``` ### Méthode 2: Variable d'environnement OLLAMA_MODELS Cette méthode indique à Ollama où trouver les modèles: 1. Ouvrez le Panneau de configuration > Système > Paramètres système avancés 2. Cliquez sur "Variables d'environnement" 3. Ajoutez une nouvelle variable système: - Nom: `OLLAMA_MODELS` - Valeur: `D:\OllamaModels` 4. Cliquez sur OK pour sauvegarder ## 5. Redémarrer le service Ollama Pour appliquer les changements: ```cmd net start Ollama ``` ## 6. Tester la configuration 1. Vérifiez que le service fonctionne correctement: ```cmd curl http://localhost:11434/api/tags ``` 2. Téléchargez un petit modèle pour tester: ```cmd ollama pull tinyllama ``` 3. Vérifiez que le modèle est bien stocké sur le disque secondaire en examinant: ```cmd dir D:\OllamaModels ``` ## 7. Migrer les modèles existants Si vous avez des modèles existants sur un autre disque ou sous WSL, vous pouvez les migrer: ### Depuis WSL ```cmd robocopy \\wsl$\Ubuntu\home\fgras-ca\.ollama\models D:\OllamaModels /E ``` ### Depuis un autre disque Windows ```cmd robocopy E:\CheminVersModeles D:\OllamaModels /E ``` ## 8. Configuration optimale pour les performances Pour optimiser les performances, créez un fichier `ollama_performance.bat`: ```batch @echo off setlocal echo Configuration des performances d'Ollama... REM Répertoire des modèles set OLLAMA_MODELS=D:\OllamaModels REM Paramètres de performance set CUDA_VISIBLE_DEVICES=0 set OMP_NUM_THREADS=8 REM Redémarrer le service Ollama net stop Ollama timeout /t 2 net start Ollama echo Configuration terminée! echo Modèles stockés dans: %OLLAMA_MODELS% echo. echo Ollama est prêt à utiliser! endlocal ``` ## 9. Intégration avec LLM Lab Pour que LLM Lab utilise correctement cette configuration: 1. Assurez-vous que l'interface de monitoring détecte correctement le nouvel emplacement 2. Créez un fichier `C:\LLM_Lab\ollama_config.json` avec: ```json { "models_dir": "D:\\OllamaModels", "gpu_layers": -1, "num_ctx": 8192, "num_thread": 12, "num_batch": 512 } ``` 3. Modifiez le fichier `C:\LLM_Lab\utils\ollama_api.py` pour qu'il vérifie l'emplacement des modèles. ## 10. Vérification de l'espace disque Ajoutez cette fonction au moniteur système pour surveiller l'espace disque des modèles: ```python def check_models_disk_space(): """Vérifie l'espace disque pour les modèles Ollama""" models_dir = "D:\\OllamaModels" # Ajustez selon votre configuration if os.path.exists(models_dir): try: total, used, free = shutil.disk_usage(models_dir) total_gb = total / (1024**3) used_gb = used / (1024**3) free_gb = free / (1024**3) print(f"Disque des modèles: {models_dir}") print(f"Espace total: {total_gb:.1f} GB") print(f"Espace utilisé: {used_gb:.1f} GB") print(f"Espace libre: {free_gb:.1f} GB") except: print("Erreur lors de la vérification de l'espace disque") ``` ## Dépannage ### Les modèles ne sont pas stockés au bon endroit 1. Vérifiez que le service Ollama a bien les permissions d'accès au dossier D:\OllamaModels 2. Vérifiez que le lien symbolique a bien été créé avec: ```cmd dir /al "C:\Users\%USERNAME%\.ollama" ``` ### Erreurs lors du téléchargement des modèles 1. Arrêtez le service Ollama 2. Vérifiez les logs dans `C:\Users\%USERNAME%\.ollama\logs` 3. Assurez-vous que le disque cible a suffisamment d'espace libre 4. Redémarrez le service ### Le service Ollama ne démarre pas 1. Vérifiez les services Windows (services.msc) 2. Consultez les logs d'événements Windows 3. Essayez de démarrer Ollama manuellement: ```cmd "C:\Program Files\Ollama\ollama.exe" serve ``` ## Maintenance ### Mise à jour d'Ollama Lors des mises à jour d'Ollama, votre configuration de stockage sur disque séparé sera préservée tant que vous ne supprimez pas manuellement le lien symbolique ou la variable d'environnement. ### Nettoyage des modèles Pour libérer de l'espace, vous pouvez supprimer les modèles inutilisés: ```cmd ollama rm nom-du-modele ``` Cela supprimera correctement le modèle de votre disque secondaire.