mirror of
https://github.com/Ladebeze66/devsite.git
synced 2026-05-11 16:56:26 +02:00
1.4 KiB
1.4 KiB
API LLM et chatbot (GrasBot)
Dernière mise à jour : 2026-04-01
Chaîne côté navigateur
app/components/ChatBot.jsappelleaskAI(question)(app/utils/askAI.js).askAIenvoie un GET vers/api/proxy?q=...(route Next.js App Router).app/api/proxy/route.jsappelle en durhttps://llmapi.fernandgrascalvet.com/ask?q=...et renvoie le corps JSON tel quel.
Conséquence : en développement local, le chatbot s'appuie sur l'API LLM déployée sur ce domaine, pas sur uvicorn local (http://localhost:8000) tant que l'URL n'est pas rendue configurable.
Réponse attendue par le front
- Dans
askAI.js, le texte affiché est lu viadata.response. Le flux Ollama (/api/generate) renvoie en général un champresponsedans le JSON ; si l'API distante ou le format change, vérifier ce mapping.
FastAPI local (llm-api/api.py)
- Endpoint GET
/ask, paramètre queryq. - Requête POST vers Ollama :
http://localhost:11434/api/generateavec JSONmodel: "mistral",prompt,stream: false. - Dépendances : voir
CONFIGURATION_SITE.md(FastAPI, uvicorn, requests).
Fichiers clés
app/utils/askAI.js
app/api/proxy/route.js
app/components/ChatBot.js
llm-api/api.py
Piste d'évolution
- Variable d'environnement (ex. URL LLM côté serveur) pour pointer vers
http://localhost:8000en dev et vers la prod en déploiement, au lieu d'une URL figée dansroute.js.