@echo off echo === Lancement du serveur API pour Obsidian === :: Configuration de l'environnement pour Windows SET PYTHONIOENCODING=utf-8 SET OBSIDIAN_MODEL=llama2:13b :: Vérifier si Ollama est en cours d'exécution echo Vérification d'Ollama... tasklist /FI "IMAGENAME eq ollama.exe" 2>NUL | find /I /N "ollama.exe" >NUL if %ERRORLEVEL% NEQ 0 ( echo Ollama n'est pas en cours d'exécution, tentative de démarrage... :: Vérifier si Ollama est installé if exist "C:\Program Files\Ollama\ollama.exe" ( echo Démarrage d'Ollama... start "" /min "C:\Program Files\Ollama\ollama.exe" echo Attente de l'initialisation d'Ollama... timeout /t 10 /nobreak >NUL ) else ( echo Impossible de trouver Ollama. Veuillez l'installer depuis https://ollama.com/download/windows echo Le serveur API va démarrer, mais les modèles pourraient ne pas être disponibles. ) ) else ( echo Ollama est déjà en cours d'exécution. ) :: Vérification si l'environnement virtuel existe if not exist "llmlab" ( echo L'environnement virtuel n'existe pas. Veuillez exécuter setup_env.bat pour le créer. exit /b 1 ) :: Activation de l'environnement virtuel call llmlab\Scripts\activate.bat :: Vérification des dépendances API pip show flask flask-cors > nul 2>&1 if ERRORLEVEL 1 ( echo Installation des dépendances manquantes... pip install flask flask-cors ) :: Affichage des informations echo. echo Serveur API en cours de démarrage pour Obsidian sur http://localhost:5001 echo. echo Pour Obsidian: echo - Installez le plugin Text Generator dans Obsidian echo - Allez dans les paramètres du plugin echo - Sélectionnez "Custom endpoint" echo - Entrez l'URL: http://localhost:5001/generate echo - Méthode: POST echo - Endpoint: /generate echo. :: Démarrage du serveur API echo Démarrage du serveur... (Ctrl+C pour arrêter) python api_server.py --port 5001 :: Désactivation de l'environnement virtuel en cas d'arrêt call deactivate