- [ ] Validation format JSON - [ ] Pipeline nodes vs FastAPI - [ ] Mise en place de scripts - [ ] argument + script pour execution - [ ] bibliothèque de scripts bien précis pour la récupération des données - [ ] Petit script tâche précise - [ ] scripts 100% autonomes? - [ ] Plus gros script pour recherche plus large - [ ] Création d'une base de donnée à partir des tickets récupérer et résolu - [ ] Déplacement des données receuillis une fois résolu? - [ ] Création d'un JSON final et suppression des fichiers inutiles - [ ] Quel LLM dans un premier temps pour l'execution des scripts - [ ] langchain, ... - [ ] besoin fine-tuning? - [ ] Voir efficacité de guider l'utilisateur pour récupérer les informations plus rapidement - [ ] Mise en place d'une interface locale? (Gradio ou autre) avec enregistrement des conversations pour tests et ajout des conversations au JSON pour regrouper es données concernant la demande base de donnée sur elastic search Récupérer les tickets avec demandes et solutions - voir ticket et demandes voir les réponses - celles clôturés question/réponse possibilité d'injection dans le LLM - sur le RAG synthétisé la question et synthétiser la réponse (fils de discussion client et support) - Attention plusieurs questions dans la demande - traité les images donner une explication au format texte pour l'intégrer dans la synthèse Q/R - Si quelque chose a été signalé en cours de traitement - Comment faire une recherche en base de donnée - Quand on fait fine-tuning lora injecte ce qui est nouveau une fois par mois - Fine-tuning refaire une synthèse résumé de l'ensemble - cleaning du data set - dans le rag pdf - possibilité de signalé un problème qui est récurrent - voir retraining si mauvaise réponse - Dabord en cours - ticket une fois corrigé pas besoin - faire un exercice et les donner à un llm grand et lui demander d'extracter le problème et la solution Demander quel est le probleme - lui demander d'analyser les images - On compile avec le fil de discussion on peut laisser image avec le texte LLM Vision - Vision a déjà la partie discussion ça dépend la stratégie - llama-vision (llava) voir comment il réagit et modifier la réponse pour qu'il comprenne comment cela va fonctionner - Mieux tout sur llava et voir le résultat - 3 agents, - Réajuster les réponses et les réinjecter - Demander au client de plus décrire les choses - content rôle du llm 2emequestion 3eme réponse cette option - agent qui va résumé question, résumé réponse, - contexte pour chaque type de demande - Normes dans le RAG knowledgebase - mode hybride RAG / fine tuning - Meme LLM qui va avoir différents agents - Voir les screen des différents datasets - huggin face - https://www.kaggle.com/ plus mathématique - dataset interessants pour le béton reprendre la logique - voir postgres configurer vscode avec les agents et et les différents modèles du servuer ollama documentation ollama voir Cline() - voir dans vscode pour lui assigner un rôle comme agent (ex: tu dois convertir du code wlangage en python) - puis lui demander de convertir tels fichiers à convertir et travailler le prompt - et continue égalment dans vscode plus assigner à une tâche documentation ollama API - voir paramètrage - voir utilisation précise dans vscode [Commencer \| DataCamp](https://www.datacamp.com/fr/users/sign_up?redirect=%2Ftracks%2Fai-fundamentals%2Fenroll) grascalvet.fernand@gmail.com Lestat66!