mirror of
https://github.com/Ladebeze66/coffreobsidian.git
synced 2025-12-16 21:37:47 +01:00
5.8 KiB
5.8 KiB
Schéma détaillé de l'installation
PC Principal (Windows 11 Pro)
│
├── Disque principal (Crucial T700 - 2 To)
│ ├── Windows 11
│ ├── Logiciels principaux
│ ├── Ollama + WSL2
│
├── Disques Crucial P3 (4 To x2)
│ ├── P3 (1)
│ │ ├── Modèles LLM
│ │ └── Fine-tuning (LoRA)
│ └── P3 (2)
│ └── Données (notes, code, contenus)
│
└── SSD MX500 SATA
└── Sauvegardes & temporaires
Serveur Windows Server 2025
│
├── Disque NVMe Gen3
│ ├── OS
│ ├── IIS
│ ├── Next.js
│ ├── Strapi
│ └── Base vectorielle (RAG avec Ragflow)
│
├── SSD 240 Go SATA
│ ├── FastAPI
│ └── Ollama (Mistral 7B)
│
├── HDD RAID1
│ └── Données site web (images, médias)
│
└── HDD 8To / 3To
└── Sauvegardes & archives
Intégration et Avantages de n8n et MCP
n8n (Automatisation de workflows open-source)
- Description : Plateforme visuelle d'automatisation permettant de créer des workflows entre API, fichiers, bases de données et services locaux ou cloud.
- Licence : Gratuit en auto-hébergement, version cloud payante si hébergée par n8n.io
- Utilisations recommandées :
- Automatiser la synchronisation entre Ragflow, Strapi, fichiers de code, notes Obsidian
- Déclencher des actions : sauvegarde automatique, traitement de données, appel de modèles LLM
- Lier des événements : création d’un fichier → ajout dans la base vectorielle
🚀 Installation de n8n (Docker - Serveur ou PC Principal)
docker run -it --rm \
-p 5678:5678 \
-v ~/.n8n:/home/node/.n8n \
-e N8N_HOST=localhost \
-e N8N_PORT=5678 \
n8nio/n8n
- Accès ensuite à l’interface : http://localhost:5678
- Créer un utilisateur, commencer à connecter tes services.
✅ Exemples de workflows utiles
- Fichier ajouté dans
/mnt/d/notes→ envoyer dans Ragflow via HTTP Request - Webhook Strapi → traitement avec LLM → export JSON/Markdown
- Surveillance d’un dossier → déclenchement d’un fine-tuning
MCP (Machine Learning Control Panel)
- Description : Interface open-source pour gérer et visualiser les modèles LLM, entraînements, datasets.
- Licence : Gratuit (open-source), fonctionne via Docker ou installation manuelle.
🔧 Installation MCP (avec Docker)
git clone https://github.com/mgoin/MCP.git
cd MCP
sudo docker-compose up --build
- Interface Web accessible à : http://localhost:8000 ou via ton IP réseau
✅ Utilisation typique
- Visualisation en temps réel de l’activité de tes modèles (RAM, VRAM, charge CPU)
- Gestion de sessions de fine-tuning via interface graphique
- Déploiement local de modèles LoRA/Ollama
- Intégration avec ChromaDB ou Ragflow pour annotation automatique
💡 Fonctionnalités supplémentaires intéressantes
- Création de profils pour tes différents modèles
- Suivi des performances GPU/CPU (intégration avec
nvitopou Prometheus) - Logs centralisés de toutes les exécutions
Utilisation combinée n8n + MCP
🔄 Scénario synergique
- n8n automatise les déclenchements (surveillance de dossiers, synchronisation de données, webhooks d’Obsidian ou Strapi)
- MCP exécute les tâches IA correspondantes et fournit un tableau de bord pour suivre chaque étape.
🔗 Exemple concret
- n8n surveille
/mnt/d/notessur ton PC principal. - Lorsqu’un nouveau fichier est détecté, il appelle une API FastAPI (ou script Python) qui :
- alimente Ragflow avec le contenu
- déclenche une session de fine-tuning si besoin (via API MCP ou ligne de commande)
- MCP enregistre l’opération, affiche l’état de la RAM/VRAM, et permet de suivre l'entraînement.
🧠 Avantages de la combinaison
- Automatisation complète sans intervention manuelle.
- Contrôle fin et centralisé de toutes les IA.
- Surveillance continue avec logs et retour visuel.
Tirer le Meilleur Parti de ChatGPT Plus & Cursor Pro
Avantages de ChatGPT Plus
- Accès prioritaire et performances optimisées
- Complémentarité avec modèles locaux
Avantages de Cursor Pro
- IDE optimisé pour l'IA
- Intégration transparente avec modèles locaux et GPT-4
Installation et Optimisation de Ragflow (sur le serveur)
Pré-requis
npm install -g ragflow-cli
Configuration
ragflow init rag-db
cd rag-db
Installation des dépendances
pip install ragflow chromadb
Démarrage de Ragflow
ragflow start
Optimisation des ressources
- Disque : NVMe Gen3
- RAM dédiée : 24 Go
Optimisation RAMDISK
- Accélère accès temporaires durant fine-tuning
- Taille : 16 Go (PC principal)
- Logiciel : ImDisk Toolkit
Tableau des commandes Nvidia
| Commande | Description |
|---|---|
nvidia-smi |
Affiche usage GPU actuel, mémoire, température. |
nvidia-smi -l 1 |
Rafraîchissement toutes les secondes |
nvidia-smi -q |
Rapport complet GPU |
nvcc --version |
Version CUDA installée |
nvitop |
Surveillance interactive temps réel (GPU) |
Surveillance Ollama
ollama ps
Ce guide intègre désormais des outils puissants comme n8n pour l’automatisation, et MCP pour le contrôle de tes modèles IA, tous deux auto-hébergeables et gratuits, parfaitement intégrés à ton infrastructure locale, avec une synergie complète pour automatiser, surveiller et ajuster intelligemment ton flux de travail IA.
Agent LLM Classes recherches 1 LLM Cursor LLM Obsidian Piste d'améliorations du projet IA locale Optimisation bios serveur