devsite/vault-grasbot/10-Projets/newsletter-ia.md
2026-04-23 19:41:58 +02:00

3.3 KiB

title slug type source domains tags aliases answers priority linked related updated visibility
Newsletter IA — Ollama + Listmonk + Directus newsletter-ia projet manual
ia
web
devops
ollama
langfuse
listmonk
directus
newsletter
docker
chatbot
newsletter ia
newsletter automatisée
newsletter ollama listmonk
listmonk directus ollama
génération de newsletter
newsletter homelab
diffusion newsletter auto-hébergée
Qu'est-ce que la newsletter IA de Fernand ?
Parle-moi du projet newsletter automatisée.
Comment génère-t-il une newsletter avec un LLM local ?
Utilise-t-il Listmonk pour ses envois ?
Sur quelles briques repose sa newsletter auto-hébergée ?
6
MOC-Projets
MOC-Ia
ia
grasbot
architecture-site
2026-04-23 public

Newsletter IA — Ollama + Listmonk + Directus

[!info] Rôle de cette note Fiche projet Newsletter IA, exposée sur le site en realisation-ia rattachée à la compétence ia. Démontre la capacité à orchestrer une chaîne de publication auto-hébergée avec de la génération LLM locale.

L'objectif

Construire un système de newsletter complètement auto-hébergé, capable de générer automatiquement le contenu éditorial (intro, sélection des articles) à partir d'un corpus d'information, puis de le diffuser à une liste d'abonnés — sans dépendre d'un service SaaS propriétaire (Substack, Mailchimp, Beehiiv…).

Les briques

Brique Rôle
Listmonk Diffusion — open-source (Go), API REST complète, segmentation, stats, templates HTML. Dans un conteneur Docker derrière IIS reverse proxy pour HTTPS.
Directus Édition — CMS headless : chaque édition est un document avec ses articles, sa thématique, sa date. Permet de réviser le contenu généré par l'IA avant envoi.
Ollama Génération LLM locale (Qwen3, Mistral). Deux usages : (1) sélection bornée des 3-5 articles les plus pertinents par thématique, (2) rédaction d'introduction éditoriale à partir des résumés.
Langfuse Observabilité — chaque génération est tracée (prompt, sortie, tokens, latence) pour suivre la qualité dans le temps et itérer sur les prompts sans régression.

Ce que ce projet démontre

  • Self-hosting complet d'une chaîne de publication (serveur, DNS, HTTPS, VM, Docker, reverse proxy, SMTP).
  • Orchestration de plusieurs services (Listmonk + Directus + Ollama) plutôt que coller des briques opaques.
  • Usage ciblé de l'IA là où elle apporte de la valeur (sélection + rédaction d'intro), sans basculer dans un 100 % automatique qui perdrait en qualité.
  • Observabilité dès le départ : Langfuse connecté avant le moindre envoi en production.

Roadmap

  • Enrichissement LLM multi-passes (extraction de citations, tags automatiques).
  • Interface d'arbitrage humain dans Directus pour valider l'intro avant envoi.
  • Dashboard Langfuse dédié à la newsletter (taux d'ouverture ↔ ton de l'intro).

Liens

  • MOC-Projets — hub projets
  • MOC-Ia — hub domaine ia
  • ia — compétence IA (fiche)
  • grasbot — autre réalisation IA, même esprit self-hosted + observable