mirror of
https://github.com/Ladebeze66/coffreobsidian.git
synced 2025-12-16 13:47:47 +01:00
212 lines
5.8 KiB
Markdown
212 lines
5.8 KiB
Markdown
|
||
---
|
||
|
||
## Schéma détaillé de l'installation
|
||
|
||
```
|
||
PC Principal (Windows 11 Pro)
|
||
│
|
||
├── Disque principal (Crucial T700 - 2 To)
|
||
│ ├── Windows 11
|
||
│ ├── Logiciels principaux
|
||
│ ├── Ollama + WSL2
|
||
│
|
||
├── Disques Crucial P3 (4 To x2)
|
||
│ ├── P3 (1)
|
||
│ │ ├── Modèles LLM
|
||
│ │ └── Fine-tuning (LoRA)
|
||
│ └── P3 (2)
|
||
│ └── Données (notes, code, contenus)
|
||
│
|
||
└── SSD MX500 SATA
|
||
└── Sauvegardes & temporaires
|
||
|
||
Serveur Windows Server 2025
|
||
│
|
||
├── Disque NVMe Gen3
|
||
│ ├── OS
|
||
│ ├── IIS
|
||
│ ├── Next.js
|
||
│ ├── Strapi
|
||
│ └── Base vectorielle (RAG avec Ragflow)
|
||
│
|
||
├── SSD 240 Go SATA
|
||
│ ├── FastAPI
|
||
│ └── Ollama (Mistral 7B)
|
||
│
|
||
├── HDD RAID1
|
||
│ └── Données site web (images, médias)
|
||
│
|
||
└── HDD 8To / 3To
|
||
└── Sauvegardes & archives
|
||
```
|
||
|
||
---
|
||
|
||
## Intégration et Avantages de n8n et MCP
|
||
|
||
### n8n (Automatisation de workflows open-source)
|
||
|
||
- **Description :** Plateforme visuelle d'automatisation permettant de créer des workflows entre API, fichiers, bases de données et services locaux ou cloud.
|
||
- **Licence :** Gratuit en auto-hébergement, version cloud payante si hébergée par n8n.io
|
||
- **Utilisations recommandées :**
|
||
- Automatiser la synchronisation entre Ragflow, Strapi, fichiers de code, notes Obsidian
|
||
- Déclencher des actions : sauvegarde automatique, traitement de données, appel de modèles LLM
|
||
- Lier des événements : création d’un fichier → ajout dans la base vectorielle
|
||
|
||
#### 🚀 Installation de n8n (Docker - Serveur ou PC Principal)
|
||
|
||
```bash
|
||
docker run -it --rm \
|
||
-p 5678:5678 \
|
||
-v ~/.n8n:/home/node/.n8n \
|
||
-e N8N_HOST=localhost \
|
||
-e N8N_PORT=5678 \
|
||
n8nio/n8n
|
||
```
|
||
|
||
- Accès ensuite à l’interface : [http://localhost:5678](http://localhost:5678/)
|
||
- Créer un utilisateur, commencer à connecter tes services.
|
||
|
||
#### ✅ Exemples de workflows utiles
|
||
|
||
- Fichier ajouté dans `/mnt/d/notes` → envoyer dans Ragflow via HTTP Request
|
||
- Webhook Strapi → traitement avec LLM → export JSON/Markdown
|
||
- Surveillance d’un dossier → déclenchement d’un fine-tuning
|
||
|
||
---
|
||
|
||
### MCP (Machine Learning Control Panel)
|
||
|
||
- **Description :** Interface open-source pour gérer et visualiser les modèles LLM, entraînements, datasets.
|
||
- **Licence :** Gratuit (open-source), fonctionne via Docker ou installation manuelle.
|
||
|
||
#### 🔧 Installation MCP (avec Docker)
|
||
|
||
```bash
|
||
git clone https://github.com/mgoin/MCP.git
|
||
cd MCP
|
||
sudo docker-compose up --build
|
||
```
|
||
|
||
- Interface Web accessible à : [http://localhost:8000](http://localhost:8000/) ou via ton IP réseau
|
||
|
||
#### ✅ Utilisation typique
|
||
|
||
- Visualisation en temps réel de l’activité de tes modèles (RAM, VRAM, charge CPU)
|
||
- Gestion de sessions de fine-tuning via interface graphique
|
||
- Déploiement local de modèles LoRA/Ollama
|
||
- Intégration avec ChromaDB ou Ragflow pour annotation automatique
|
||
|
||
#### 💡 Fonctionnalités supplémentaires intéressantes
|
||
|
||
- Création de profils pour tes différents modèles
|
||
- Suivi des performances GPU/CPU (intégration avec `nvitop` ou Prometheus)
|
||
- Logs centralisés de toutes les exécutions
|
||
|
||
---
|
||
|
||
## Utilisation combinée n8n + MCP
|
||
|
||
### 🔄 Scénario synergique
|
||
|
||
- **n8n** automatise les déclenchements (surveillance de dossiers, synchronisation de données, webhooks d’Obsidian ou Strapi)
|
||
- **MCP** exécute les tâches IA correspondantes et fournit un tableau de bord pour suivre chaque étape.
|
||
|
||
### 🔗 Exemple concret
|
||
|
||
1. n8n surveille `/mnt/d/notes` sur ton PC principal.
|
||
2. Lorsqu’un nouveau fichier est détecté, il appelle une API FastAPI (ou script Python) qui :
|
||
- alimente Ragflow avec le contenu
|
||
- déclenche une session de fine-tuning si besoin (via API MCP ou ligne de commande)
|
||
3. MCP enregistre l’opération, affiche l’état de la RAM/VRAM, et permet de suivre l'entraînement.
|
||
|
||
### 🧠 Avantages de la combinaison
|
||
|
||
- **Automatisation complète sans intervention manuelle.**
|
||
- **Contrôle fin et centralisé de toutes les IA.**
|
||
- **Surveillance continue avec logs et retour visuel.**
|
||
|
||
---
|
||
|
||
## Tirer le Meilleur Parti de ChatGPT Plus & Cursor Pro
|
||
|
||
### Avantages de ChatGPT Plus
|
||
|
||
- Accès prioritaire et performances optimisées
|
||
- Complémentarité avec modèles locaux
|
||
|
||
### Avantages de Cursor Pro
|
||
|
||
- IDE optimisé pour l'IA
|
||
- Intégration transparente avec modèles locaux et GPT-4
|
||
|
||
---
|
||
|
||
## Installation et Optimisation de Ragflow (sur le serveur)
|
||
|
||
#### Pré-requis
|
||
|
||
```bash
|
||
npm install -g ragflow-cli
|
||
```
|
||
|
||
#### Configuration
|
||
|
||
```bash
|
||
ragflow init rag-db
|
||
cd rag-db
|
||
```
|
||
|
||
#### Installation des dépendances
|
||
|
||
```bash
|
||
pip install ragflow chromadb
|
||
```
|
||
|
||
#### Démarrage de Ragflow
|
||
|
||
```bash
|
||
ragflow start
|
||
```
|
||
|
||
### Optimisation des ressources
|
||
|
||
- **Disque :** NVMe Gen3
|
||
- **RAM dédiée :** 24 Go
|
||
|
||
---
|
||
|
||
## Optimisation RAMDISK
|
||
|
||
- Accélère accès temporaires durant fine-tuning
|
||
- Taille : 16 Go (PC principal)
|
||
- Logiciel : **ImDisk Toolkit**
|
||
|
||
---
|
||
|
||
## Tableau des commandes Nvidia
|
||
|
||
|Commande|Description|
|
||
|---|---|
|
||
|`nvidia-smi`|Affiche usage GPU actuel, mémoire, température.|
|
||
|`nvidia-smi -l 1`|Rafraîchissement toutes les secondes|
|
||
|`nvidia-smi -q`|Rapport complet GPU|
|
||
|`nvcc --version`|Version CUDA installée|
|
||
|`nvitop`|Surveillance interactive temps réel (GPU)|
|
||
|
||
---
|
||
|
||
## Surveillance Ollama
|
||
|
||
```bash
|
||
ollama ps
|
||
```
|
||
|
||
Ce guide intègre désormais des outils puissants comme **n8n** pour l’automatisation, et **MCP** pour le contrôle de tes modèles IA, tous deux auto-hébergeables et gratuits, parfaitement intégrés à ton infrastructure locale, avec une synergie complète pour automatiser, surveiller et ajuster intelligemment ton flux de travail IA.
|
||
|
||
[[Agent LLM Classes recherches 1]]
|
||
[[LLM Cursor]]
|
||
[[LLM Obsidian]]
|
||
[[Piste d'améliorations du projet IA locale]]
|
||
[[Optimisation bios serveur]] |