llm_lab_perso/lancer-cursor.bat
2025-04-21 17:36:30 +02:00

60 lines
1.9 KiB
Batchfile

@echo off
echo === Lancement du serveur API pour Cursor ===
:: Configuration de l'environnement pour Windows
SET PYTHONIOENCODING=utf-8
SET CURSOR_MODEL=codellama:13b-python
:: Vérifier si Ollama est en cours d'exécution
echo Vérification d'Ollama...
tasklist /FI "IMAGENAME eq ollama.exe" 2>NUL | find /I /N "ollama.exe" >NUL
if %ERRORLEVEL% NEQ 0 (
echo Ollama n'est pas en cours d'exécution, tentative de démarrage...
:: Vérifier si Ollama est installé
if exist "C:\Program Files\Ollama\ollama.exe" (
echo Démarrage d'Ollama...
start "" /min "C:\Program Files\Ollama\ollama.exe"
echo Attente de l'initialisation d'Ollama...
timeout /t 10 /nobreak >NUL
) else (
echo Impossible de trouver Ollama. Veuillez l'installer depuis https://ollama.com/download/windows
echo Le serveur API va démarrer, mais les modèles pourraient ne pas être disponibles.
)
) else (
echo Ollama est déjà en cours d'exécution.
)
:: Vérification si l'environnement virtuel existe
if not exist "llmlab" (
echo L'environnement virtuel n'existe pas. Veuillez exécuter setup_env.bat pour le créer.
exit /b 1
)
:: Activation de l'environnement virtuel
call llmlab\Scripts\activate.bat
:: Vérification des dépendances API
pip show flask flask-cors > nul 2>&1
if ERRORLEVEL 1 (
echo Installation des dépendances manquantes...
pip install flask flask-cors
)
:: Affichage des informations
echo.
echo Serveur API en cours de démarrage pour Cursor sur http://localhost:8001
echo.
echo Pour Cursor:
echo - Ouvrez Cursor
echo - Allez dans Settings > AI
echo - Sélectionnez 'Custom endpoint'
echo - Entrez l'URL: http://localhost:8001/v1
echo.
:: Démarrage du serveur API
echo Démarrage du serveur... (Ctrl+C pour arrêter)
python api_server.py --port 8001
:: Désactivation de l'environnement virtuel en cas d'arrêt
call deactivate