llm_lab_perso/test_installation.bat
2025-03-27 18:40:52 +01:00

98 lines
2.4 KiB
Batchfile

@echo off
setlocal
echo ===== Test d'installation LLM Lab sur Windows 11 Pro =====
echo.
REM Activation de l'environnement virtuel si disponible
if exist llmlab\Scripts\activate (
call llmlab\Scripts\activate
) else (
echo Environnement virtuel non détecté, utilisation de Python système
)
REM Vérification de la version Python
python --version
if %ERRORLEVEL% NEQ 0 (
echo [ERREUR] Python n'est pas installé ou n'est pas dans le PATH
) else (
echo [OK] Python détecté
)
REM Vérification des modules requis
set MODULES=requests tkinter wmi psutil
for %%m in (%MODULES%) do (
python -c "import %%m" 2>nul
if %ERRORLEVEL% NEQ 0 (
echo [ERREUR] Module %%m non installé
) else (
echo [OK] Module %%m installé
)
)
REM Vérification de l'installation Ollama
curl -s http://localhost:11434/api/tags >nul 2>&1
if %ERRORLEVEL% NEQ 0 (
echo [ERREUR] Impossible de se connecter à Ollama
) else (
echo [OK] Connexion à Ollama réussie
REM Récupération des modèles installés
echo.
echo Modèles Ollama installés:
curl -s http://localhost:11434/api/tags | findstr "name"
)
REM Vérification du GPU NVIDIA
where nvidia-smi >nul 2>&1
if %ERRORLEVEL% NEQ 0 (
echo [INFO] NVIDIA GPU non détecté
) else (
echo [OK] NVIDIA GPU détecté
REM Affichage des informations GPU
echo.
echo Informations GPU:
nvidia-smi --query-gpu=name,driver_version,memory.total --format=csv,noheader
)
REM Vérification des fichiers de projet
echo.
echo Vérification des fichiers clés du projet:
set FILES=chat.py chat_gui.py monitor.py run.bat
for %%f in (%FILES%) do (
if exist %%f (
echo [OK] Fichier %%f trouvé
) else (
echo [ERREUR] Fichier %%f manquant
)
)
REM Vérification des dossiers requis
echo.
echo Vérification des dossiers:
set DIRS=logs chat_history agents core utils
for %%d in (%DIRS%) do (
if exist %%d (
echo [OK] Dossier %%d trouvé
) else (
echo [ERREUR] Dossier %%d manquant
)
)
REM Récapitulatif
echo.
echo ===== Récapitulatif =====
echo.
echo Si tous les tests sont [OK], le système est correctement configuré.
echo.
echo Pour optimiser Ollama, exécutez optimize_ollama.bat en tant qu'administrateur.
echo Pour lancer LLM Lab, utilisez run.bat gui ou run.bat chat [agent]
echo.
REM Désactivation de l'environnement virtuel si nécessaire
if exist llmlab\Scripts\activate (
deactivate
)
endlocal