coffreobsidian/Serveur perso/Infrastructure Optimisée d'IA Locale (version 2).md
2025-03-23 20:59:56 +01:00

5.8 KiB
Raw Blame History


Schéma détaillé de l'installation

PC Principal (Windows 11 Pro)
│
├── Disque principal (Crucial T700 - 2 To)
│   ├── Windows 11
│   ├── Logiciels principaux
│   ├── Ollama + WSL2
│
├── Disques Crucial P3 (4 To x2)
│   ├── P3 (1)
│   │   ├── Modèles LLM
│   │   └── Fine-tuning (LoRA)
│   └── P3 (2)
│       └── Données (notes, code, contenus)
│
└── SSD MX500 SATA
    └── Sauvegardes & temporaires

Serveur Windows Server 2025
│
├── Disque NVMe Gen3
│   ├── OS
│   ├── IIS
│   ├── Next.js
│   ├── Strapi
│   └── Base vectorielle (RAG avec Ragflow)
│
├── SSD 240 Go SATA
│   ├── FastAPI
│   └── Ollama (Mistral 7B)
│
├── HDD RAID1
│   └── Données site web (images, médias)
│
└── HDD 8To / 3To
    └── Sauvegardes & archives

Intégration et Avantages de n8n et MCP

n8n (Automatisation de workflows open-source)

  • Description : Plateforme visuelle d'automatisation permettant de créer des workflows entre API, fichiers, bases de données et services locaux ou cloud.
  • Licence : Gratuit en auto-hébergement, version cloud payante si hébergée par n8n.io
  • Utilisations recommandées :
    • Automatiser la synchronisation entre Ragflow, Strapi, fichiers de code, notes Obsidian
    • Déclencher des actions : sauvegarde automatique, traitement de données, appel de modèles LLM
    • Lier des événements : création dun fichier → ajout dans la base vectorielle

🚀 Installation de n8n (Docker - Serveur ou PC Principal)

docker run -it --rm \
  -p 5678:5678 \
  -v ~/.n8n:/home/node/.n8n \
  -e N8N_HOST=localhost \
  -e N8N_PORT=5678 \
  n8nio/n8n
  • Accès ensuite à linterface : http://localhost:5678
  • Créer un utilisateur, commencer à connecter tes services.

Exemples de workflows utiles

  • Fichier ajouté dans /mnt/d/notes → envoyer dans Ragflow via HTTP Request
  • Webhook Strapi → traitement avec LLM → export JSON/Markdown
  • Surveillance dun dossier → déclenchement dun fine-tuning

MCP (Machine Learning Control Panel)

  • Description : Interface open-source pour gérer et visualiser les modèles LLM, entraînements, datasets.
  • Licence : Gratuit (open-source), fonctionne via Docker ou installation manuelle.

🔧 Installation MCP (avec Docker)

git clone https://github.com/mgoin/MCP.git
cd MCP
sudo docker-compose up --build

Utilisation typique

  • Visualisation en temps réel de lactivité de tes modèles (RAM, VRAM, charge CPU)
  • Gestion de sessions de fine-tuning via interface graphique
  • Déploiement local de modèles LoRA/Ollama
  • Intégration avec ChromaDB ou Ragflow pour annotation automatique

💡 Fonctionnalités supplémentaires intéressantes

  • Création de profils pour tes différents modèles
  • Suivi des performances GPU/CPU (intégration avec nvitop ou Prometheus)
  • Logs centralisés de toutes les exécutions

Utilisation combinée n8n + MCP

🔄 Scénario synergique

  • n8n automatise les déclenchements (surveillance de dossiers, synchronisation de données, webhooks dObsidian ou Strapi)
  • MCP exécute les tâches IA correspondantes et fournit un tableau de bord pour suivre chaque étape.

🔗 Exemple concret

  1. n8n surveille /mnt/d/notes sur ton PC principal.
  2. Lorsquun nouveau fichier est détecté, il appelle une API FastAPI (ou script Python) qui :
    • alimente Ragflow avec le contenu
    • déclenche une session de fine-tuning si besoin (via API MCP ou ligne de commande)
  3. MCP enregistre lopération, affiche létat de la RAM/VRAM, et permet de suivre l'entraînement.

🧠 Avantages de la combinaison

  • Automatisation complète sans intervention manuelle.
  • Contrôle fin et centralisé de toutes les IA.
  • Surveillance continue avec logs et retour visuel.

Tirer le Meilleur Parti de ChatGPT Plus & Cursor Pro

Avantages de ChatGPT Plus

  • Accès prioritaire et performances optimisées
  • Complémentarité avec modèles locaux

Avantages de Cursor Pro

  • IDE optimisé pour l'IA
  • Intégration transparente avec modèles locaux et GPT-4

Installation et Optimisation de Ragflow (sur le serveur)

Pré-requis

npm install -g ragflow-cli

Configuration

ragflow init rag-db
cd rag-db

Installation des dépendances

pip install ragflow chromadb

Démarrage de Ragflow

ragflow start

Optimisation des ressources

  • Disque : NVMe Gen3
  • RAM dédiée : 24 Go

Optimisation RAMDISK

  • Accélère accès temporaires durant fine-tuning
  • Taille : 16 Go (PC principal)
  • Logiciel : ImDisk Toolkit

Tableau des commandes Nvidia

Commande Description
nvidia-smi Affiche usage GPU actuel, mémoire, température.
nvidia-smi -l 1 Rafraîchissement toutes les secondes
nvidia-smi -q Rapport complet GPU
nvcc --version Version CUDA installée
nvitop Surveillance interactive temps réel (GPU)

Surveillance Ollama

ollama ps

Ce guide intègre désormais des outils puissants comme n8n pour lautomatisation, et MCP pour le contrôle de tes modèles IA, tous deux auto-hébergeables et gratuits, parfaitement intégrés à ton infrastructure locale, avec une synergie complète pour automatiser, surveiller et ajuster intelligemment ton flux de travail IA.

Agent LLM Classes recherches 1 LLM Cursor LLM Obsidian Piste d'améliorations du projet IA locale Optimisation bios serveur