6.3 KiB
Guide de migration de LLM Lab vers Windows natif
Ce guide vous aidera à migrer le projet LLM Lab de WSL vers Windows natif pour profiter pleinement des ressources matérielles de votre machine.
Avantages de la migration vers Windows natif
- Accès direct à toute la RAM (64 Go) sans limitations de WSL
- Meilleures performances GPU grâce à l'accès direct aux pilotes NVIDIA
- Latence réduite (pas de couche de virtualisation WSL)
- Meilleure intégration avec l'environnement de bureau Windows
Plan de migration
- Installer les prérequis sur Windows
- Configurer l'environnement Python
- Installer Ollama pour Windows
- Transférer les fichiers du projet
- Adapter les scripts
- Tester et optimiser
1. Installation des prérequis
Python
- Téléchargez Python 3.10+ depuis python.org
- Cochez "Add Python to PATH" lors de l'installation
- Ouvrez un terminal et vérifiez l'installation:
python --version pip --version
Git
- Téléchargez Git depuis git-scm.com
- Installez avec les options par défaut
- Vérifiez l'installation:
git --version
Pilotes NVIDIA
- Assurez-vous d'avoir les derniers pilotes NVIDIA: nvidia.com/Download
- Installez CUDA Toolkit 12.x: developer.nvidia.com/cuda-downloads
- Vérifiez l'installation:
nvidia-smi nvcc --version
2. Configuration de l'environnement Python
Créez un environnement virtuel pour le projet:
mkdir C:\LLM_Lab
cd C:\LLM_Lab
python -m venv venv
venv\Scripts\activate
3. Installation d'Ollama pour Windows
- Téléchargez Ollama depuis ollama.com
- Installez en suivant les instructions
- Vérifiez que le service est bien lancé:
curl http://localhost:11434/api/tags
4. Transfert des fichiers du projet
Option 1: Via Git (recommandé)
Si vous avez un dépôt Git:
cd C:\LLM_Lab
git clone <URL_DE_VOTRE_DÉPÔT>
Option 2: Copie directe
- Naviguez vers votre projet WSL:
\\wsl$\Ubuntu\home\fgras-ca\llm_lab - Copiez tous les fichiers vers
C:\LLM_Lab
5. Installation des dépendances
cd C:\LLM_Lab
venv\Scripts\activate
pip install -r requirements.txt
6. Adaptation des scripts
Créer un script d'activation pour Windows (run.bat)
Créez un fichier run.bat à la racine du projet:
@echo off
setlocal
REM Activer l'environnement virtuel
call venv\Scripts\activate
REM Vérifier les arguments
if "%1"=="" (
echo Usage: run.bat [command]
echo Commands:
echo chat - Lance l'interface de chat en ligne de commande
echo gui - Lance l'interface graphique de chat
echo server - Démarre le serveur d'API
echo monitor - Lance le moniteur système
echo agent - Lance un agent spécifique
goto :eof
)
if "%1"=="chat" (
python chat.py %2 %3 %4 %5 %6 %7 %8 %9
) else if "%1"=="gui" (
python chat_gui.py
) else if "%1"=="server" (
python server.py
) else if "%1"=="monitor" (
python monitor.py
) else if "%1"=="agent" (
python agents\%2.py %3 %4 %5 %6 %7 %8 %9
) else (
echo Commande inconnue: %1
echo Utilisez run.bat sans arguments pour voir les commandes disponibles
)
endlocal
Modifications du code
1. Adapter les chemins dans le code
Remplacez les chemins style Unix par des chemins Windows:
# Avant
os.path.join('/home/fgras-ca/llm_lab', 'data')
# Après
os.path.join(os.path.dirname(os.path.abspath(__file__)), 'data')
2. Adapter system_monitor.py
# Modifier la détection du système d'exploitation
if platform.system() == "Windows":
# Utiliser WMI pour une meilleure détection des ressources
import wmi
computer = wmi.WMI()
# Récupérer les informations sur la RAM
for os_info in computer.Win32_OperatingSystem():
total_ram = float(os_info.TotalVisibleMemorySize) / (1024 * 1024) # en GB
3. Optimiser les paramètres Ollama
Créez un fichier ollama_config.json à la racine:
{
"gpu_layers": -1,
"num_ctx": 8192,
"num_thread": 12,
"num_batch": 512
}
7. Optimisations pour Windows
Activez le mode de haute performance
- Panneau de configuration → Options d'alimentation
- Sélectionnez "Performances optimales" ou créez un plan personnalisé
Optimisez CUDA pour Ollama
Créez un script optimize_ollama.bat:
@echo off
setlocal
echo Optimisation des performances d'Ollama sur Windows...
REM Configurer les variables d'environnement pour CUDA
set CUDA_VISIBLE_DEVICES=0
set OMP_NUM_THREADS=8
REM Redémarrer le service Ollama pour appliquer ces paramètres
net stop Ollama
net start Ollama
echo Ollama optimisé pour de meilleures performances!
endlocal
8. Gestion des modèles
Sous Windows, les modèles Ollama seront stockés dans:
C:\Users\VotreNom\.ollama\models
Pour importer vos modèles existants depuis WSL:
- Copiez les fichiers de
\\wsl$\Ubuntu\home\fgras-ca\.ollama\modelsvers ce dossier - Redémarrez le service Ollama
9. Tests et vérification
Lancez le moniteur système pour vérifier l'utilisation des ressources:
cd C:\LLM_Lab
run.bat monitor
Lancez l'interface graphique:
run.bat gui
Dépannage
Si l'interface graphique ne démarre pas
-
Vérifiez que tkinter est installé:
python -c "import tkinter; tkinter._test()" -
Assurez-vous que les chemins dans le code sont corrects:
set PYTHONPATH=C:\LLM_Lab
Si Ollama n'utilise pas le GPU
-
Vérifiez que CUDA est correctement détecté:
nvidia-smi -
Réinstallez Ollama en mode administrateur
-
Exécutez
optimize_ollama.baten mode administrateur
Conclusion
Cette migration vers Windows natif devrait significativement améliorer les performances de votre projet LLM Lab en utilisant pleinement les 64 Go de RAM et les capacités GPU de votre système. Le retrait de la couche de virtualisation WSL réduira la latence et permettra une meilleure allocation des ressources.
Si vous rencontrez des problèmes pendant la migration, n'hésitez pas à consulter les logs d'Ollama dans:
C:\Users\VotreNom\.ollama\logs