@echo off setlocal REM Script de configuration de l'environnement virtuel LLM Lab pour Windows REM Ce script crée un nouvel environnement virtuel et installe les dépendances requises echo === Configuration de l'environnement LLM Lab === REM Vérification si Python 3 est installé python --version > nul 2>&1 if %ERRORLEVEL% NEQ 0 ( echo Erreur: Python n'est pas installé. Veuillez l'installer avant de continuer. echo Téléchargez Python depuis https://www.python.org/downloads/ exit /b 1 ) REM Vérification si pip est installé pip --version > nul 2>&1 if %ERRORLEVEL% NEQ 0 ( echo Erreur: pip n'est pas installé. Veuillez vérifier votre installation Python. exit /b 1 ) REM Vérification si venv est disponible python -c "import venv" > nul 2>&1 if %ERRORLEVEL% NEQ 0 ( echo Erreur: Le module venv n'est pas disponible. echo Réinstallez Python avec l'option "installer pip et venv" cochée. exit /b 1 ) REM Vérification de l'installation de tkinter python -c "import tkinter" > nul 2>&1 if %ERRORLEVEL% NEQ 0 ( echo Avertissement: Tkinter n'est pas installé. echo Veuillez réinstaller Python en cochant l'option "tcl/tk and IDLE". echo Voir: https://www.python.org/downloads/windows/ echo. set /p continue="Continuer malgré tout? (o/n): " if /i not "%continue%"=="o" exit /b 1 ) REM Suppression de l'ancien environnement s'il existe if exist "llmlab" ( echo Suppression de l'ancien environnement virtuel... rmdir /s /q llmlab ) REM Création du nouvel environnement virtuel echo Création d'un nouvel environnement virtuel... python -m venv llmlab REM Activation de l'environnement virtuel echo Activation de l'environnement virtuel... call llmlab\Scripts\activate REM Mise à jour de pip echo Mise à jour de pip... python -m pip install --upgrade pip REM Installation des dépendances echo Installation des dépendances requises... pip install -r requirements.txt REM Ajout des dépendances spécifiques à Windows echo Installation des dépendances Windows... pip install wmi psutil requests pillow REM Installation optionnelle de dépendances pour NVIDIA GPU where nvidia-smi > nul 2>&1 if %ERRORLEVEL% EQU 0 ( echo NVIDIA GPU détecté, installation des dépendances NVIDIA... pip install nvidia-ml-py ) REM Vérification de l'exécution d'Ollama curl -s http://localhost:11434/api/tags > nul 2>&1 if %ERRORLEVEL% NEQ 0 ( echo. echo ATTENTION: Ollama ne semble pas être en cours d'exécution. echo Veuillez installer et démarrer Ollama depuis https://ollama.com/download/windows echo. ) REM Création des dossiers nécessaires if not exist "logs" mkdir logs if not exist "chat_history" mkdir chat_history REM Affichage du résumé echo. echo === Configuration terminée === echo Pour activer l'environnement virtuel, exécutez: echo call llmlab\Scripts\activate echo. echo Pour lancer le moniteur système: echo run.bat monitor echo. echo Pour utiliser un agent LLM: echo run.bat chat [nom de l'agent] echo. echo Agents disponibles: echo cursor - CodeLlama 13B Python (pour le code) echo obsidian - Llama2 13B (pour la gestion des connaissances) echo test - Mistral 7B (pour les tests rapides) echo. endlocal