coffreobsidian/Serveur perso/Infrastructure Optimisée d'IA Locale (version 2).md
2025-03-23 20:59:56 +01:00

212 lines
5.8 KiB
Markdown
Raw Permalink Blame History

This file contains ambiguous Unicode characters

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

---
## Schéma détaillé de l'installation
```
PC Principal (Windows 11 Pro)
├── Disque principal (Crucial T700 - 2 To)
│ ├── Windows 11
│ ├── Logiciels principaux
│ ├── Ollama + WSL2
├── Disques Crucial P3 (4 To x2)
│ ├── P3 (1)
│ │ ├── Modèles LLM
│ │ └── Fine-tuning (LoRA)
│ └── P3 (2)
│ └── Données (notes, code, contenus)
└── SSD MX500 SATA
└── Sauvegardes & temporaires
Serveur Windows Server 2025
├── Disque NVMe Gen3
│ ├── OS
│ ├── IIS
│ ├── Next.js
│ ├── Strapi
│ └── Base vectorielle (RAG avec Ragflow)
├── SSD 240 Go SATA
│ ├── FastAPI
│ └── Ollama (Mistral 7B)
├── HDD RAID1
│ └── Données site web (images, médias)
└── HDD 8To / 3To
└── Sauvegardes & archives
```
---
## Intégration et Avantages de n8n et MCP
### n8n (Automatisation de workflows open-source)
- **Description :** Plateforme visuelle d'automatisation permettant de créer des workflows entre API, fichiers, bases de données et services locaux ou cloud.
- **Licence :** Gratuit en auto-hébergement, version cloud payante si hébergée par n8n.io
- **Utilisations recommandées :**
- Automatiser la synchronisation entre Ragflow, Strapi, fichiers de code, notes Obsidian
- Déclencher des actions : sauvegarde automatique, traitement de données, appel de modèles LLM
- Lier des événements : création dun fichier → ajout dans la base vectorielle
#### 🚀 Installation de n8n (Docker - Serveur ou PC Principal)
```bash
docker run -it --rm \
-p 5678:5678 \
-v ~/.n8n:/home/node/.n8n \
-e N8N_HOST=localhost \
-e N8N_PORT=5678 \
n8nio/n8n
```
- Accès ensuite à linterface : [http://localhost:5678](http://localhost:5678/)
- Créer un utilisateur, commencer à connecter tes services.
#### ✅ Exemples de workflows utiles
- Fichier ajouté dans `/mnt/d/notes` → envoyer dans Ragflow via HTTP Request
- Webhook Strapi → traitement avec LLM → export JSON/Markdown
- Surveillance dun dossier → déclenchement dun fine-tuning
---
### MCP (Machine Learning Control Panel)
- **Description :** Interface open-source pour gérer et visualiser les modèles LLM, entraînements, datasets.
- **Licence :** Gratuit (open-source), fonctionne via Docker ou installation manuelle.
#### 🔧 Installation MCP (avec Docker)
```bash
git clone https://github.com/mgoin/MCP.git
cd MCP
sudo docker-compose up --build
```
- Interface Web accessible à : [http://localhost:8000](http://localhost:8000/) ou via ton IP réseau
#### ✅ Utilisation typique
- Visualisation en temps réel de lactivité de tes modèles (RAM, VRAM, charge CPU)
- Gestion de sessions de fine-tuning via interface graphique
- Déploiement local de modèles LoRA/Ollama
- Intégration avec ChromaDB ou Ragflow pour annotation automatique
#### 💡 Fonctionnalités supplémentaires intéressantes
- Création de profils pour tes différents modèles
- Suivi des performances GPU/CPU (intégration avec `nvitop` ou Prometheus)
- Logs centralisés de toutes les exécutions
---
## Utilisation combinée n8n + MCP
### 🔄 Scénario synergique
- **n8n** automatise les déclenchements (surveillance de dossiers, synchronisation de données, webhooks dObsidian ou Strapi)
- **MCP** exécute les tâches IA correspondantes et fournit un tableau de bord pour suivre chaque étape.
### 🔗 Exemple concret
1. n8n surveille `/mnt/d/notes` sur ton PC principal.
2. Lorsquun nouveau fichier est détecté, il appelle une API FastAPI (ou script Python) qui :
- alimente Ragflow avec le contenu
- déclenche une session de fine-tuning si besoin (via API MCP ou ligne de commande)
3. MCP enregistre lopération, affiche létat de la RAM/VRAM, et permet de suivre l'entraînement.
### 🧠 Avantages de la combinaison
- **Automatisation complète sans intervention manuelle.**
- **Contrôle fin et centralisé de toutes les IA.**
- **Surveillance continue avec logs et retour visuel.**
---
## Tirer le Meilleur Parti de ChatGPT Plus & Cursor Pro
### Avantages de ChatGPT Plus
- Accès prioritaire et performances optimisées
- Complémentarité avec modèles locaux
### Avantages de Cursor Pro
- IDE optimisé pour l'IA
- Intégration transparente avec modèles locaux et GPT-4
---
## Installation et Optimisation de Ragflow (sur le serveur)
#### Pré-requis
```bash
npm install -g ragflow-cli
```
#### Configuration
```bash
ragflow init rag-db
cd rag-db
```
#### Installation des dépendances
```bash
pip install ragflow chromadb
```
#### Démarrage de Ragflow
```bash
ragflow start
```
### Optimisation des ressources
- **Disque :** NVMe Gen3
- **RAM dédiée :** 24 Go
---
## Optimisation RAMDISK
- Accélère accès temporaires durant fine-tuning
- Taille : 16 Go (PC principal)
- Logiciel : **ImDisk Toolkit**
---
## Tableau des commandes Nvidia
|Commande|Description|
|---|---|
|`nvidia-smi`|Affiche usage GPU actuel, mémoire, température.|
|`nvidia-smi -l 1`|Rafraîchissement toutes les secondes|
|`nvidia-smi -q`|Rapport complet GPU|
|`nvcc --version`|Version CUDA installée|
|`nvitop`|Surveillance interactive temps réel (GPU)|
---
## Surveillance Ollama
```bash
ollama ps
```
Ce guide intègre désormais des outils puissants comme **n8n** pour lautomatisation, et **MCP** pour le contrôle de tes modèles IA, tous deux auto-hébergeables et gratuits, parfaitement intégrés à ton infrastructure locale, avec une synergie complète pour automatiser, surveiller et ajuster intelligemment ton flux de travail IA.
[[Agent LLM Classes recherches 1]]
[[LLM Cursor]]
[[LLM Obsidian]]
[[Piste d'améliorations du projet IA locale]]
[[Optimisation bios serveur]]