4.3 KiB
| title | slug | type | source | domains | tags | aliases | answers | priority | linked | related | updated | visibility | |||||||||||||||||||||||||||||||||||||
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| Mon Exploration et Maîtrise de l’Intelligence Artificielle | ia | competence | manual |
|
|
|
|
7 |
|
|
2026-04-23 | public |
Slug : ia
Ordre d'affichage : 1
Mon exploration des LLM et de l'IA : un intérêt devenu spécialisation
Comme beaucoup, j'ai découvert l'intelligence artificielle grand public avec l'arrivée de ChatGPT, qui a marqué un tournant décisif dans l'accessibilité et la démocratisation de cette technologie. Fasciné par la vitesse d'évolution du domaine, j'ai rapidement développé un intérêt pour plusieurs applications : génération d'images, chatbots, et plus largement les modèles de langage (LLMs).
De l'expérimentation à l'auto-hébergement
Rapidement, j'ai voulu sortir de la dépendance aux API propriétaires et comprendre ce qui se passe sous le capot. J'ai expérimenté des solutions d'IA locale avec Ollama, LM Studio, Open WebUI, en explorant le fine-tuning léger, l'ingénierie de prompts, et l'intégration de modèles dans des workflows métier.
Aujourd'hui, toute ma pile IA tourne sur mon serveur personnel :
- LLM locaux (Qwen3, Llama, Mistral, modèles d'embedding),
- observabilité via Langfuse self-hosted,
- recherche web privée via SearxNG et Firecrawl pour alimenter des agents.
Cette infrastructure me permet d'expérimenter sans plafond de tokens, sans fuite de données, et avec une compréhension fine du coût et de la performance de chaque modèle.
Une spécialisation formalisée à l'École 42
Parallèlement, je me spécialise en Data Science et Intelligence Artificielle à l'École 42, ce qui me permet d'approfondir les fondations mathématiques (régression, descente de gradient, fonctions de coût, métriques d'évaluation) plutôt que de rester au niveau de l'utilisation des bibliothèques de haut niveau. Les projets ft-linear-regression (premier modèle from scratch) et la piscine-python-data-science (5 modules) posent les briques essentielles avant les modèles plus complexes.
Mon angle
Je privilégie trois axes :
- Autonomie — héberger moi-même pour comprendre réellement les contraintes, les coûts et les limites.
- Observabilité — chaque appel LLM que je produis est tracé (Langfuse). On ne peut pas améliorer ce qu'on ne mesure pas.
- Utilité concrète — pas d'IA pour l'IA : chaque projet résout un problème réel (newsletter automatisée, chatbot de portfolio, transcription vidéo…).
Réalisations IA exposées sur le site
La rubrique /competences/ia présente ces travaux en vignettes navigables (entité Strapi realisation-ia) :
- grasbot — RAG maison (graph + BM25) + Qwen3 local + Langfuse.
- newsletter-ia — chaîne de publication auto-hébergée avec génération LLM ciblée.
- transcription-video — pipeline multimédia (décodage → segmentation → STT → post-processing).
- Parcours / formation : voir ft-linear-regression et piscine-python-data-science.
Cette compétence est illustrée par 9 images sur le site.
Liens
- MOC-Competences — vue d'ensemble des compétences
- MOC-Ia — domaine ia
- MOC-Algorithmique — domaine algorithmique
- MOC-Ecole-42 — domaine ecole-42