3.6 KiB
Intégration et Avantages de n8n
n8n (Automatisation de workflows open-source)
-
Description : Plateforme visuelle d'automatisation permettant de créer des workflows entre API, fichiers, bases de données et services locaux ou cloud.
-
Licence : Gratuit en auto-hébergement, version cloud payante si hébergée par n8n.io
-
Utilisations recommandées :
-
Automatiser la synchronisation entre Ragflow, Strapi, fichiers de code, notes Obsidian
-
Déclencher des actions : sauvegarde automatique, traitement de données, appel de modèles LLM
-
Lier des événements : création d’un fichier → ajout dans la base vectorielle
-
🚀 Installation de n8n (Docker - Serveur ou PC Principal)
docker run -it --rm \
-p 5678:5678 \
-v ~/.n8n:/home/node/.n8n \
-e N8N_HOST=localhost \
-e N8N_PORT=5678 \
n8nio/n8n
-
Accès ensuite à l’interface : http://localhost:5678
-
Créer un utilisateur, commencer à connecter tes services.
✅ Exemples de workflows utiles
-
Fichier ajouté dans
/mnt/d/notes→ envoyer dans Ragflow via HTTP Request -
Webhook Strapi → traitement avec LLM → export JSON/Markdown
-
Surveillance d’un dossier → déclenchement d’un fine-tuning
Intégration et Avantages de MPC
MCP (Machine Learning Control Panel)
-
Description : Interface open-source pour gérer et visualiser les modèles LLM, entraînements, datasets.
-
Licence : Gratuit (open-source), fonctionne via Docker ou installation manuelle.
🔧 Installation MCP (avec Docker)
git clone https://github.com/mgoin/MCP.git
cd MCP
sudo docker-compose up --build
- Interface Web accessible à : http://localhost:8000 ou via ton IP réseau
✅ Utilisation typique
-
Visualisation en temps réel de l’activité de tes modèles (RAM, VRAM, charge CPU)
-
Gestion de sessions de fine-tuning via interface graphique
-
Déploiement local de modèles LoRA/Ollama
-
Intégration avec ChromaDB ou Ragflow pour annotation automatique
💡 Fonctionnalités supplémentaires intéressantes
-
Création de profils pour tes différents modèles
-
Suivi des performances GPU/CPU (intégration avec
nvitopou Prometheus) -
Logs centralisés de toutes les exécutions
Utilisation combinée n8n + MCP
🔄 Scénario synergique
-
n8n automatise les déclenchements (surveillance de dossiers, synchronisation de données, webhooks d’Obsidian ou Strapi)
-
MCP exécute les tâches IA correspondantes et fournit un tableau de bord pour suivre chaque étape.
🔗 Exemple concret
-
n8n surveille
/mnt/d/notessur ton PC principal. -
Lorsqu’un nouveau fichier est détecté, il appelle une API FastAPI (ou script Python) qui :
-
alimente Ragflow avec le contenu
-
déclenche une session de fine-tuning si besoin (via API MCP ou ligne de commande)
-
-
MCP enregistre l’opération, affiche l’état de la RAM/VRAM, et permet de suivre l'entraînement.
🧠 Avantages de la combinaison
-
Automatisation complète sans intervention manuelle.
-
Contrôle fin et centralisé de toutes les IA.
-
Surveillance continue avec logs et retour visuel.
Tirer le Meilleur Parti de ChatGPT Plus & Cursor Pro
Avantages de ChatGPT Plus
-
Accès prioritaire et performances optimisées
-
Complémentarité avec modèles locaux
Avantages de Cursor Pro
-
IDE optimisé pour l'IA
-
Intégration transparente avec modèles locaux et GPT-4