@echo off setlocal echo ===== Test d'installation LLM Lab sur Windows 11 Pro ===== echo. REM Activation de l'environnement virtuel si disponible if exist llmlab\Scripts\activate ( call llmlab\Scripts\activate ) else ( echo Environnement virtuel non détecté, utilisation de Python système ) REM Vérification de la version Python python --version if %ERRORLEVEL% NEQ 0 ( echo [ERREUR] Python n'est pas installé ou n'est pas dans le PATH ) else ( echo [OK] Python détecté ) REM Vérification des modules requis set MODULES=requests tkinter wmi psutil for %%m in (%MODULES%) do ( python -c "import %%m" 2>nul if %ERRORLEVEL% NEQ 0 ( echo [ERREUR] Module %%m non installé ) else ( echo [OK] Module %%m installé ) ) REM Vérification de l'installation Ollama curl -s http://localhost:11434/api/tags >nul 2>&1 if %ERRORLEVEL% NEQ 0 ( echo [ERREUR] Impossible de se connecter à Ollama ) else ( echo [OK] Connexion à Ollama réussie REM Récupération des modèles installés echo. echo Modèles Ollama installés: curl -s http://localhost:11434/api/tags | findstr "name" ) REM Vérification du GPU NVIDIA where nvidia-smi >nul 2>&1 if %ERRORLEVEL% NEQ 0 ( echo [INFO] NVIDIA GPU non détecté ) else ( echo [OK] NVIDIA GPU détecté REM Affichage des informations GPU echo. echo Informations GPU: nvidia-smi --query-gpu=name,driver_version,memory.total --format=csv,noheader ) REM Vérification des fichiers de projet echo. echo Vérification des fichiers clés du projet: set FILES=chat.py chat_gui.py monitor.py run.bat for %%f in (%FILES%) do ( if exist %%f ( echo [OK] Fichier %%f trouvé ) else ( echo [ERREUR] Fichier %%f manquant ) ) REM Vérification des dossiers requis echo. echo Vérification des dossiers: set DIRS=logs chat_history agents core utils for %%d in (%DIRS%) do ( if exist %%d ( echo [OK] Dossier %%d trouvé ) else ( echo [ERREUR] Dossier %%d manquant ) ) REM Récapitulatif echo. echo ===== Récapitulatif ===== echo. echo Si tous les tests sont [OK], le système est correctement configuré. echo. echo Pour optimiser Ollama, exécutez optimize_ollama.bat en tant qu'administrateur. echo Pour lancer LLM Lab, utilisez run.bat gui ou run.bat chat [agent] echo. REM Désactivation de l'environnement virtuel si nécessaire if exist llmlab\Scripts\activate ( deactivate ) endlocal