mirror of
https://github.com/Ladebeze66/llm_lab_perso.git
synced 2025-12-13 09:06:50 +01:00
98 lines
2.4 KiB
Batchfile
98 lines
2.4 KiB
Batchfile
@echo off
|
|
setlocal
|
|
|
|
echo ===== Test d'installation LLM Lab sur Windows 11 Pro =====
|
|
echo.
|
|
|
|
REM Activation de l'environnement virtuel si disponible
|
|
if exist llmlab\Scripts\activate (
|
|
call llmlab\Scripts\activate
|
|
) else (
|
|
echo Environnement virtuel non détecté, utilisation de Python système
|
|
)
|
|
|
|
REM Vérification de la version Python
|
|
python --version
|
|
if %ERRORLEVEL% NEQ 0 (
|
|
echo [ERREUR] Python n'est pas installé ou n'est pas dans le PATH
|
|
) else (
|
|
echo [OK] Python détecté
|
|
)
|
|
|
|
REM Vérification des modules requis
|
|
set MODULES=requests tkinter wmi psutil
|
|
for %%m in (%MODULES%) do (
|
|
python -c "import %%m" 2>nul
|
|
if %ERRORLEVEL% NEQ 0 (
|
|
echo [ERREUR] Module %%m non installé
|
|
) else (
|
|
echo [OK] Module %%m installé
|
|
)
|
|
)
|
|
|
|
REM Vérification de l'installation Ollama
|
|
curl -s http://localhost:11434/api/tags >nul 2>&1
|
|
if %ERRORLEVEL% NEQ 0 (
|
|
echo [ERREUR] Impossible de se connecter à Ollama
|
|
) else (
|
|
echo [OK] Connexion à Ollama réussie
|
|
|
|
REM Récupération des modèles installés
|
|
echo.
|
|
echo Modèles Ollama installés:
|
|
curl -s http://localhost:11434/api/tags | findstr "name"
|
|
)
|
|
|
|
REM Vérification du GPU NVIDIA
|
|
where nvidia-smi >nul 2>&1
|
|
if %ERRORLEVEL% NEQ 0 (
|
|
echo [INFO] NVIDIA GPU non détecté
|
|
) else (
|
|
echo [OK] NVIDIA GPU détecté
|
|
|
|
REM Affichage des informations GPU
|
|
echo.
|
|
echo Informations GPU:
|
|
nvidia-smi --query-gpu=name,driver_version,memory.total --format=csv,noheader
|
|
)
|
|
|
|
REM Vérification des fichiers de projet
|
|
echo.
|
|
echo Vérification des fichiers clés du projet:
|
|
set FILES=chat.py chat_gui.py monitor.py run.bat
|
|
for %%f in (%FILES%) do (
|
|
if exist %%f (
|
|
echo [OK] Fichier %%f trouvé
|
|
) else (
|
|
echo [ERREUR] Fichier %%f manquant
|
|
)
|
|
)
|
|
|
|
REM Vérification des dossiers requis
|
|
echo.
|
|
echo Vérification des dossiers:
|
|
set DIRS=logs chat_history agents core utils
|
|
for %%d in (%DIRS%) do (
|
|
if exist %%d (
|
|
echo [OK] Dossier %%d trouvé
|
|
) else (
|
|
echo [ERREUR] Dossier %%d manquant
|
|
)
|
|
)
|
|
|
|
REM Récapitulatif
|
|
echo.
|
|
echo ===== Récapitulatif =====
|
|
echo.
|
|
echo Si tous les tests sont [OK], le système est correctement configuré.
|
|
echo.
|
|
echo Pour optimiser Ollama, exécutez optimize_ollama.bat en tant qu'administrateur.
|
|
echo Pour lancer LLM Lab, utilisez run.bat gui ou run.bat chat [agent]
|
|
echo.
|
|
|
|
REM Désactivation de l'environnement virtuel si nécessaire
|
|
if exist llmlab\Scripts\activate (
|
|
deactivate
|
|
)
|
|
|
|
endlocal |