coffreobsidian/inbox/Configuration_Ragflow_Profil_Leger_Ollama_FR.md
2025-03-28 16:18:37 +01:00

2.9 KiB
Raw Blame History

Configuration Légère de Ragflow (LLM local via Ollama, pour tests rapides)

Cette configuration est pensée pour :

  • Des tests fonctionnels, prototypage rapide, ou prévisualisation
  • Une charge minimale sur le GPU
  • Des documents en français, avec possibilité de traduction manuelle
  • Lutilisation dOllama : http://217.182.105.173:11434
  • Une interface uniquement web dans Ragflow

🔧 Étape 1 Ajouter les modèles dans linterface Ragflow

🧠 1. Modèle principal de chat (léger)

Champ Valeur
Model type chat
Model name mistral:latest
Base URL http://217.182.105.173:11434
Max Tokens 512
Vision ? Non

👁 2. Modèle de vision (optionnel)

⚠️ Dans un profil léger, on peut :

  • Ne pas activer de modèle de vision
  • OU utiliser LLaVA pour certains tests ciblés
Champ Valeur
Model type image2text
Model name llava:34b-v1.6-fp16
Base URL http://217.182.105.173:11434
Vision ? Oui

🔤 3. Embedding Model

Champ Valeur
Model type embedding
Model name nomic-embed-text
Base URL http://217.182.105.173:11434

🔁 4. Reranker (désactivé pour alléger)

Dans la configuration légère, ne pas ajouter de modèle rerank
→ Laissez ce champ vide ou désactivez-le dans la base de données


📂 Étape 2 Créer une base de documents

  1. Nouvelle base
  2. Sélectionner :
    • Chat : mistral:latest
    • Embedding : nomic-embed-text
    • Reranker : aucun
    • Vision : désactivé (ou llava ponctuellement)

🌍 Étape 3 Ajout manuel des traductions (si besoin)

  • Dans Edit chunks, coller manuellement une version anglaise des textes
  • Traduction via Mistral ou autre outil temporairement
  • ⚠️ Indexation : prioriser la version anglaise pour de meilleurs résultats

Avantages

  • 🔁 Rapide à charger
  • 🔧 Simple à maintenir
  • 🔍 Parfait pour tester un nouveau dataset, valider le flux RAG, etc.

📌 Résumé

Rôle Modèle
Chat mistral:latest
Vision (facultatif) llava:34b-v1.6
Embedding nomic-embed-text
Reranker Aucun

Tu es maintenant prêt à faire des tests rapides avec un minimum de ressources.