--- ## Schéma détaillé de l'installation ``` PC Principal (Windows 11 Pro) │ ├── Disque principal (Crucial T700 - 2 To) │ ├── Windows 11 │ ├── Logiciels principaux │ ├── Ollama + WSL2 │ ├── Disques Crucial P3 (4 To x2) │ ├── P3 (1) │ │ ├── Modèles LLM │ │ └── Fine-tuning (LoRA) │ └── P3 (2) │ └── Données (notes, code, contenus) │ └── SSD MX500 SATA └── Sauvegardes & temporaires Serveur Windows Server 2025 │ ├── Disque NVMe Gen3 │ ├── OS │ ├── IIS │ ├── Next.js │ ├── Strapi │ └── Base vectorielle (RAG avec Ragflow) │ ├── SSD 240 Go SATA │ ├── FastAPI │ └── Ollama (Mistral 7B) │ ├── HDD RAID1 │ └── Données site web (images, médias) │ └── HDD 8To / 3To └── Sauvegardes & archives ``` --- ## Intégration et Avantages de n8n et MCP ### n8n (Automatisation de workflows open-source) - **Description :** Plateforme visuelle d'automatisation permettant de créer des workflows entre API, fichiers, bases de données et services locaux ou cloud. - **Licence :** Gratuit en auto-hébergement, version cloud payante si hébergée par n8n.io - **Utilisations recommandées :** - Automatiser la synchronisation entre Ragflow, Strapi, fichiers de code, notes Obsidian - Déclencher des actions : sauvegarde automatique, traitement de données, appel de modèles LLM - Lier des événements : création d’un fichier → ajout dans la base vectorielle #### 🚀 Installation de n8n (Docker - Serveur ou PC Principal) ```bash docker run -it --rm \ -p 5678:5678 \ -v ~/.n8n:/home/node/.n8n \ -e N8N_HOST=localhost \ -e N8N_PORT=5678 \ n8nio/n8n ``` - Accès ensuite à l’interface : [http://localhost:5678](http://localhost:5678/) - Créer un utilisateur, commencer à connecter tes services. #### ✅ Exemples de workflows utiles - Fichier ajouté dans `/mnt/d/notes` → envoyer dans Ragflow via HTTP Request - Webhook Strapi → traitement avec LLM → export JSON/Markdown - Surveillance d’un dossier → déclenchement d’un fine-tuning --- ### MCP (Machine Learning Control Panel) - **Description :** Interface open-source pour gérer et visualiser les modèles LLM, entraînements, datasets. - **Licence :** Gratuit (open-source), fonctionne via Docker ou installation manuelle. #### 🔧 Installation MCP (avec Docker) ```bash git clone https://github.com/mgoin/MCP.git cd MCP sudo docker-compose up --build ``` - Interface Web accessible à : [http://localhost:8000](http://localhost:8000/) ou via ton IP réseau #### ✅ Utilisation typique - Visualisation en temps réel de l’activité de tes modèles (RAM, VRAM, charge CPU) - Gestion de sessions de fine-tuning via interface graphique - Déploiement local de modèles LoRA/Ollama - Intégration avec ChromaDB ou Ragflow pour annotation automatique #### 💡 Fonctionnalités supplémentaires intéressantes - Création de profils pour tes différents modèles - Suivi des performances GPU/CPU (intégration avec `nvitop` ou Prometheus) - Logs centralisés de toutes les exécutions --- ## Utilisation combinée n8n + MCP ### 🔄 Scénario synergique - **n8n** automatise les déclenchements (surveillance de dossiers, synchronisation de données, webhooks d’Obsidian ou Strapi) - **MCP** exécute les tâches IA correspondantes et fournit un tableau de bord pour suivre chaque étape. ### 🔗 Exemple concret 1. n8n surveille `/mnt/d/notes` sur ton PC principal. 2. Lorsqu’un nouveau fichier est détecté, il appelle une API FastAPI (ou script Python) qui : - alimente Ragflow avec le contenu - déclenche une session de fine-tuning si besoin (via API MCP ou ligne de commande) 3. MCP enregistre l’opération, affiche l’état de la RAM/VRAM, et permet de suivre l'entraînement. ### 🧠 Avantages de la combinaison - **Automatisation complète sans intervention manuelle.** - **Contrôle fin et centralisé de toutes les IA.** - **Surveillance continue avec logs et retour visuel.** --- ## Tirer le Meilleur Parti de ChatGPT Plus & Cursor Pro ### Avantages de ChatGPT Plus - Accès prioritaire et performances optimisées - Complémentarité avec modèles locaux ### Avantages de Cursor Pro - IDE optimisé pour l'IA - Intégration transparente avec modèles locaux et GPT-4 --- ## Installation et Optimisation de Ragflow (sur le serveur) #### Pré-requis ```bash npm install -g ragflow-cli ``` #### Configuration ```bash ragflow init rag-db cd rag-db ``` #### Installation des dépendances ```bash pip install ragflow chromadb ``` #### Démarrage de Ragflow ```bash ragflow start ``` ### Optimisation des ressources - **Disque :** NVMe Gen3 - **RAM dédiée :** 24 Go --- ## Optimisation RAMDISK - Accélère accès temporaires durant fine-tuning - Taille : 16 Go (PC principal) - Logiciel : **ImDisk Toolkit** --- ## Tableau des commandes Nvidia |Commande|Description| |---|---| |`nvidia-smi`|Affiche usage GPU actuel, mémoire, température.| |`nvidia-smi -l 1`|Rafraîchissement toutes les secondes| |`nvidia-smi -q`|Rapport complet GPU| |`nvcc --version`|Version CUDA installée| |`nvitop`|Surveillance interactive temps réel (GPU)| --- ## Surveillance Ollama ```bash ollama ps ``` Ce guide intègre désormais des outils puissants comme **n8n** pour l’automatisation, et **MCP** pour le contrôle de tes modèles IA, tous deux auto-hébergeables et gratuits, parfaitement intégrés à ton infrastructure locale, avec une synergie complète pour automatiser, surveiller et ajuster intelligemment ton flux de travail IA. [[Agent LLM Classes recherches 1]] [[LLM Cursor]] [[LLM Obsidian]] [[Piste d'améliorations du projet IA locale]] [[Optimisation bios serveur]]