mirror of
https://github.com/Ladebeze66/llm_lab_perso.git
synced 2025-12-13 09:06:50 +01:00
107 lines
3.2 KiB
Batchfile
107 lines
3.2 KiB
Batchfile
@echo off
|
|
setlocal
|
|
|
|
REM Script de configuration de l'environnement virtuel LLM Lab pour Windows
|
|
REM Ce script crée un nouvel environnement virtuel et installe les dépendances requises
|
|
|
|
echo === Configuration de l'environnement LLM Lab ===
|
|
|
|
REM Vérification si Python 3 est installé
|
|
python --version > nul 2>&1
|
|
if %ERRORLEVEL% NEQ 0 (
|
|
echo Erreur: Python n'est pas installé. Veuillez l'installer avant de continuer.
|
|
echo Téléchargez Python depuis https://www.python.org/downloads/
|
|
exit /b 1
|
|
)
|
|
|
|
REM Vérification si pip est installé
|
|
pip --version > nul 2>&1
|
|
if %ERRORLEVEL% NEQ 0 (
|
|
echo Erreur: pip n'est pas installé. Veuillez vérifier votre installation Python.
|
|
exit /b 1
|
|
)
|
|
|
|
REM Vérification si venv est disponible
|
|
python -c "import venv" > nul 2>&1
|
|
if %ERRORLEVEL% NEQ 0 (
|
|
echo Erreur: Le module venv n'est pas disponible.
|
|
echo Réinstallez Python avec l'option "installer pip et venv" cochée.
|
|
exit /b 1
|
|
)
|
|
|
|
REM Vérification de l'installation de tkinter
|
|
python -c "import tkinter" > nul 2>&1
|
|
if %ERRORLEVEL% NEQ 0 (
|
|
echo Avertissement: Tkinter n'est pas installé.
|
|
echo Veuillez réinstaller Python en cochant l'option "tcl/tk and IDLE".
|
|
echo Voir: https://www.python.org/downloads/windows/
|
|
echo.
|
|
set /p continue="Continuer malgré tout? (o/n): "
|
|
if /i not "%continue%"=="o" exit /b 1
|
|
)
|
|
|
|
REM Suppression de l'ancien environnement s'il existe
|
|
if exist "llmlab" (
|
|
echo Suppression de l'ancien environnement virtuel...
|
|
rmdir /s /q llmlab
|
|
)
|
|
|
|
REM Création du nouvel environnement virtuel
|
|
echo Création d'un nouvel environnement virtuel...
|
|
python -m venv llmlab
|
|
|
|
REM Activation de l'environnement virtuel
|
|
echo Activation de l'environnement virtuel...
|
|
call llmlab\Scripts\activate
|
|
|
|
REM Mise à jour de pip
|
|
echo Mise à jour de pip...
|
|
python -m pip install --upgrade pip
|
|
|
|
REM Installation des dépendances
|
|
echo Installation des dépendances requises...
|
|
pip install -r requirements.txt
|
|
|
|
REM Ajout des dépendances spécifiques à Windows
|
|
echo Installation des dépendances Windows...
|
|
pip install wmi psutil requests pillow
|
|
|
|
REM Installation optionnelle de dépendances pour NVIDIA GPU
|
|
where nvidia-smi > nul 2>&1
|
|
if %ERRORLEVEL% EQU 0 (
|
|
echo NVIDIA GPU détecté, installation des dépendances NVIDIA...
|
|
pip install nvidia-ml-py
|
|
)
|
|
|
|
REM Vérification de l'exécution d'Ollama
|
|
curl -s http://localhost:11434/api/tags > nul 2>&1
|
|
if %ERRORLEVEL% NEQ 0 (
|
|
echo.
|
|
echo ATTENTION: Ollama ne semble pas être en cours d'exécution.
|
|
echo Veuillez installer et démarrer Ollama depuis https://ollama.com/download/windows
|
|
echo.
|
|
)
|
|
|
|
REM Création des dossiers nécessaires
|
|
if not exist "logs" mkdir logs
|
|
if not exist "chat_history" mkdir chat_history
|
|
|
|
REM Affichage du résumé
|
|
echo.
|
|
echo === Configuration terminée ===
|
|
echo Pour activer l'environnement virtuel, exécutez:
|
|
echo call llmlab\Scripts\activate
|
|
echo.
|
|
echo Pour lancer le moniteur système:
|
|
echo run.bat monitor
|
|
echo.
|
|
echo Pour utiliser un agent LLM:
|
|
echo run.bat chat [nom de l'agent]
|
|
echo.
|
|
echo Agents disponibles:
|
|
echo cursor - CodeLlama 13B Python (pour le code)
|
|
echo obsidian - Llama2 13B (pour la gestion des connaissances)
|
|
echo test - Mistral 7B (pour les tests rapides)
|
|
echo.
|
|
|
|
endlocal |