mirror of
https://github.com/Ladebeze66/llm_lab_perso.git
synced 2025-12-13 10:46:50 +01:00
2.3 KiB
2.3 KiB
Checklist de migration vers Windows 11 Pro
Ce document fournit une liste de vérification rapide pour migrer LLM Lab de WSL vers Windows 11 Pro.
Étape 1: Prérequis Windows
- Installer Python 3.10+ (cocher "Add Python to PATH")
- Installer Git pour Windows
- Installer Ollama pour Windows
- Mettre à jour les pilotes NVIDIA (si GPU disponible)
Étape 2: Transfert du projet
Option A: Via Git (recommandée)
- Cloner le dépôt sur Windows
git clone <URL_DU_DÉPÔT> llm_lab cd llm_lab
Option B: Copie directe
- Accéder au dossier WSL:
\\wsl$\Ubuntu\chemin\vers\llm_lab - Copier tous les fichiers vers un nouveau dossier Windows
Étape 3: Configuration
- Exécuter le script de configuration
setup_env.bat - Vérifier l'installation
test_installation.bat - Optimiser Ollama (en tant qu'administrateur)
optimize_ollama.bat
Étape 4: Téléchargement des modèles
- Télécharger les modèles dans Ollama
ollama pull mistral:latest ollama pull codellama:13b-python ollama pull llama2:13b
Étape 5: Test du système
- Lancer l'interface graphique
run.bat gui - Lancer le moniteur système
run.bat monitor - Tester l'agent Mistral
run.bat chat test
Problèmes courants et solutions
Interface graphique ne se lance pas
- Vérifier l'installation de tkinter:
python -c "import tkinter; tkinter._test()" - Réinstaller Python avec l'option "tcl/tk and IDLE" cochée
Ollama ne trouve pas le GPU
- Exécuter
optimize_ollama.baten tant qu'administrateur - Vérifier que les pilotes NVIDIA sont à jour:
nvidia-smi
Erreurs de modules manquants
- Installer manuellement:
pip install wmi psutil requests pillow
Recommandations pour de meilleures performances
- Plan d'alimentation Windows: Régler sur "Hautes performances"
- Panneau de configuration NVIDIA:
- Préférer les performances maximales
- Désactiver l'économie d'énergie GPU
- Antivirus:
- Ajouter des exceptions pour le dossier Ollama
- Exclure le processus Ollama