llm_lab/installation_ollama_disques_separes.md
2025-03-25 21:19:54 +01:00

212 lines
5.8 KiB
Markdown

# Guide d'installation d'Ollama avec modèles sur un disque séparé
Ce guide vous explique comment installer Ollama sur votre disque système Windows (C:) tout en stockant les modèles volumineux sur un autre disque pour économiser de l'espace.
## Pourquoi séparer Ollama et ses modèles?
- Les modèles LLM peuvent occuper plusieurs dizaines de Go
- Le disque système (C:) est souvent limité en espace
- Les SSD secondaires ou disques durs offrent plus d'espace de stockage
- Cette configuration permet d'optimiser l'espace disque tout en gardant de bonnes performances
## 1. Installation d'Ollama sur le disque principal
1. Téléchargez Ollama depuis [ollama.com/download/windows](https://ollama.com/download/windows)
2. Exécutez l'installateur avec les options par défaut (C:\Program Files\Ollama)
3. Laissez l'installation se terminer et le service démarrer
## 2. Arrêter le service Ollama
Avant de modifier la configuration, arrêtez le service Ollama:
1. Ouvrez un terminal administrateur (clic droit > Exécuter en tant qu'administrateur)
2. Exécutez la commande:
```cmd
net stop Ollama
```
## 3. Créer le dossier de destination pour les modèles
Choisissez un disque avec beaucoup d'espace libre (par exemple D:, E:, etc.):
```cmd
mkdir D:\OllamaModels
```
## 4. Configurer le stockage des modèles
### Méthode 1: Lien symbolique (recommandée)
Cette méthode permet à Ollama de continuer à chercher les modèles au même endroit, mais Windows redirige vers le nouveau disque:
```cmd
rmdir /s /q "C:\Users\%USERNAME%\.ollama\models"
mklink /d "C:\Users\%USERNAME%\.ollama\models" "D:\OllamaModels"
```
### Méthode 2: Variable d'environnement OLLAMA_MODELS
Cette méthode indique à Ollama où trouver les modèles:
1. Ouvrez le Panneau de configuration > Système > Paramètres système avancés
2. Cliquez sur "Variables d'environnement"
3. Ajoutez une nouvelle variable système:
- Nom: `OLLAMA_MODELS`
- Valeur: `D:\OllamaModels`
4. Cliquez sur OK pour sauvegarder
## 5. Redémarrer le service Ollama
Pour appliquer les changements:
```cmd
net start Ollama
```
## 6. Tester la configuration
1. Vérifiez que le service fonctionne correctement:
```cmd
curl http://localhost:11434/api/tags
```
2. Téléchargez un petit modèle pour tester:
```cmd
ollama pull tinyllama
```
3. Vérifiez que le modèle est bien stocké sur le disque secondaire en examinant:
```cmd
dir D:\OllamaModels
```
## 7. Migrer les modèles existants
Si vous avez des modèles existants sur un autre disque ou sous WSL, vous pouvez les migrer:
### Depuis WSL
```cmd
robocopy \\wsl$\Ubuntu\home\fgras-ca\.ollama\models D:\OllamaModels /E
```
### Depuis un autre disque Windows
```cmd
robocopy E:\CheminVersModeles D:\OllamaModels /E
```
## 8. Configuration optimale pour les performances
Pour optimiser les performances, créez un fichier `ollama_performance.bat`:
```batch
@echo off
setlocal
echo Configuration des performances d'Ollama...
REM Répertoire des modèles
set OLLAMA_MODELS=D:\OllamaModels
REM Paramètres de performance
set CUDA_VISIBLE_DEVICES=0
set OMP_NUM_THREADS=8
REM Redémarrer le service Ollama
net stop Ollama
timeout /t 2
net start Ollama
echo Configuration terminée!
echo Modèles stockés dans: %OLLAMA_MODELS%
echo.
echo Ollama est prêt à utiliser!
endlocal
```
## 9. Intégration avec LLM Lab
Pour que LLM Lab utilise correctement cette configuration:
1. Assurez-vous que l'interface de monitoring détecte correctement le nouvel emplacement
2. Créez un fichier `C:\LLM_Lab\ollama_config.json` avec:
```json
{
"models_dir": "D:\\OllamaModels",
"gpu_layers": -1,
"num_ctx": 8192,
"num_thread": 12,
"num_batch": 512
}
```
3. Modifiez le fichier `C:\LLM_Lab\utils\ollama_api.py` pour qu'il vérifie l'emplacement des modèles.
## 10. Vérification de l'espace disque
Ajoutez cette fonction au moniteur système pour surveiller l'espace disque des modèles:
```python
def check_models_disk_space():
"""Vérifie l'espace disque pour les modèles Ollama"""
models_dir = "D:\\OllamaModels" # Ajustez selon votre configuration
if os.path.exists(models_dir):
try:
total, used, free = shutil.disk_usage(models_dir)
total_gb = total / (1024**3)
used_gb = used / (1024**3)
free_gb = free / (1024**3)
print(f"Disque des modèles: {models_dir}")
print(f"Espace total: {total_gb:.1f} GB")
print(f"Espace utilisé: {used_gb:.1f} GB")
print(f"Espace libre: {free_gb:.1f} GB")
except:
print("Erreur lors de la vérification de l'espace disque")
```
## Dépannage
### Les modèles ne sont pas stockés au bon endroit
1. Vérifiez que le service Ollama a bien les permissions d'accès au dossier D:\OllamaModels
2. Vérifiez que le lien symbolique a bien été créé avec:
```cmd
dir /al "C:\Users\%USERNAME%\.ollama"
```
### Erreurs lors du téléchargement des modèles
1. Arrêtez le service Ollama
2. Vérifiez les logs dans `C:\Users\%USERNAME%\.ollama\logs`
3. Assurez-vous que le disque cible a suffisamment d'espace libre
4. Redémarrez le service
### Le service Ollama ne démarre pas
1. Vérifiez les services Windows (services.msc)
2. Consultez les logs d'événements Windows
3. Essayez de démarrer Ollama manuellement:
```cmd
"C:\Program Files\Ollama\ollama.exe" serve
```
## Maintenance
### Mise à jour d'Ollama
Lors des mises à jour d'Ollama, votre configuration de stockage sur disque séparé sera préservée tant que vous ne supprimez pas manuellement le lien symbolique ou la variable d'environnement.
### Nettoyage des modèles
Pour libérer de l'espace, vous pouvez supprimer les modèles inutilisés:
```cmd
ollama rm nom-du-modele
```
Cela supprimera correctement le modèle de votre disque secondaire.