mirror of
https://github.com/Ladebeze66/llm_ticket3.git
synced 2025-12-16 20:37:47 +01:00
592 lines
24 KiB
Markdown
592 lines
24 KiB
Markdown
<!-- Generated by SpecStory -->
|
|
|
|
# Identification du fichier pour agentjsonanalyser (2025-04-07 14:42:16)
|
|
|
|
_**User**_
|
|
|
|
En ce qui concerne l'analyse de texte (agentjsonanalyser) il faudrait déterminer quel est précisement le fichier récupéré
|
|
|
|
---
|
|
|
|
_**Assistant**_
|
|
|
|
Pour déterminer quel fichier est récupéré par l'analyseur de texte `agentjsonanalyser`, il serait utile de vérifier comment ce module est intégré dans votre code. En général, cela pourrait impliquer de regarder les appels de fonction ou les importations dans votre projet.
|
|
|
|
Dans le fichier `markdown_to_json.py`, il n'y a pas de référence directe à `agentjsonanalyser`. Cependant, si ce module est utilisé ailleurs dans votre code, vous devriez chercher des lignes comme :
|
|
|
|
```python
|
|
from agentjsonanalyser import ...
|
|
```
|
|
|
|
ou des appels de fonction qui pourraient indiquer quel fichier est analysé.
|
|
|
|
Si vous avez un fichier spécifique ou une section de code où `agentjsonanalyser` est utilisé, je peux vous aider à l'examiner. Sinon, vous pourriez également vérifier la documentation ou les commentaires dans votre code pour voir si des informations supplémentaires sont fournies sur le fichier analysé.
|
|
|
|
Si vous avez besoin d'aide pour une partie spécifique de votre code, n'hésitez pas à la partager !
|
|
|
|
---
|
|
|
|
_**User**_
|
|
|
|
peux tu déterminer quel est le fichier récupéré
|
|
|
|
---
|
|
|
|
_**Assistant**_
|
|
|
|
Dans le fichier `agent_json_analyser.py`, l'agent `AgentJsonAnalyser` est conçu pour analyser des tickets au format JSON. Le fichier récupéré pour l'analyse est celui qui est passé en tant que paramètre à la méthode `executer`, qui prend un dictionnaire `ticket_data` contenant les données du ticket.
|
|
|
|
Voici les points clés concernant le fichier récupéré :
|
|
|
|
1. **Format des données** : Le fichier JSON doit contenir des informations structurées sur le ticket, y compris des champs comme `code`, `name`, `description`, `messages`, et potentiellement d'autres métadonnées.
|
|
|
|
2. **Méthode `executer`** : Cette méthode est responsable de l'analyse du ticket. Elle appelle la méthode `_formater_ticket_pour_analyse` pour préparer les données du ticket avant de les envoyer à un modèle de langage (LLM) pour analyse.
|
|
|
|
3. **Exemple de structure de données** : Le dictionnaire `ticket_data` pourrait ressembler à ceci :
|
|
```json
|
|
{
|
|
"code": "TICKET-123",
|
|
"name": "Problème de connexion",
|
|
"description": "L'utilisateur ne peut pas se connecter.",
|
|
"messages": [
|
|
{
|
|
"from": "utilisateur",
|
|
"date": "2023-10-01",
|
|
"content": "Je ne peux pas me connecter."
|
|
}
|
|
],
|
|
"metadata": {
|
|
"priorité": "haute",
|
|
"statut": "ouvert"
|
|
}
|
|
}
|
|
```
|
|
|
|
Pour résumer, le fichier récupéré est un fichier JSON contenant les informations du ticket, et il est analysé par l'agent via la méthode `executer`. Si vous avez besoin de plus de détails ou d'exemples spécifiques, n'hésitez pas à demander !
|
|
|
|
---
|
|
|
|
_**User**_
|
|
|
|
peut on déterminer quels sont les fichiers utilisés dana agent_json_analyser.py en passant en revue son code et celui de orchestror.py
|
|
|
|
---
|
|
|
|
_**Assistant**_
|
|
|
|
Pour déterminer quels fichiers sont utilisés dans `agent_json_analyser.py` et `orchestrator.py`, examinons les deux fichiers et les interactions entre eux.
|
|
|
|
### 1. **Fichiers utilisés dans `agent_json_analyser.py`**
|
|
|
|
Dans `agent_json_analyser.py`, l'agent `AgentJsonAnalyser` est conçu pour analyser des tickets JSON. Voici les points clés concernant les fichiers :
|
|
|
|
- **Fichier JSON** : L'agent s'attend à recevoir un dictionnaire `ticket_data` qui contient les données du ticket. Ce dictionnaire est généralement chargé à partir d'un fichier JSON, comme indiqué dans la méthode `executer` où il utilise `self.llm.interroger(prompt)` pour analyser les données.
|
|
|
|
### 2. **Fichiers utilisés dans `orchestrator.py`**
|
|
|
|
Dans `orchestrator.py`, plusieurs méthodes sont responsables de la gestion des fichiers :
|
|
|
|
- **Méthode `trouver_rapport`** : Cette méthode cherche des fichiers de rapport dans différents emplacements. Elle vérifie les fichiers JSON et Markdown pour un ticket donné. Les chemins des fichiers sont construits en fonction de l'ID du ticket et de l'emplacement d'extraction.
|
|
|
|
- **Méthode `_preparer_donnees_ticket`** : Cette méthode essaie de charger les données du ticket à partir d'un fichier JSON, et si cela échoue, elle essaie de charger à partir d'un fichier Markdown. Les fichiers recherchés sont :
|
|
- `"{ticket_id}_rapport.json"`
|
|
- `"{ticket_id}_rapport.md"`
|
|
|
|
- **Méthode `_extraire_donnees_de_markdown`** : Cette méthode extrait les données d'un fichier Markdown et les structure en un dictionnaire. Elle lit le contenu du fichier Markdown spécifié par `md_path`.
|
|
|
|
### Conclusion
|
|
|
|
En résumé, les fichiers utilisés dans `agent_json_analyser.py` et `orchestrator.py` sont principalement des fichiers JSON et Markdown qui contiennent les données des tickets. Voici les types de fichiers et leurs emplacements :
|
|
|
|
- **Fichiers JSON** : Cherchés dans les répertoires d'extraction, nommés selon le format `"{ticket_id}_rapport.json"`.
|
|
- **Fichiers Markdown** : Cherchés dans les mêmes répertoires, nommés selon le format `"{ticket_id}_rapport.md"`.
|
|
|
|
Ces fichiers sont essentiels pour le fonctionnement de l'agent d'analyse JSON et de l'orchestrateur, car ils fournissent les données nécessaires pour l'analyse et le traitement des tickets. Si vous avez besoin d'une exploration plus approfondie ou d'exemples spécifiques, n'hésitez pas à demander !
|
|
|
|
---
|
|
|
|
_**User**_
|
|
|
|
il faut déterminer avec précision quel est réellment le rapport utiliser dans cet agent car s'il s'agit du markdown alors il faut revoir son nom et sa configuration pour mieux l'adapter as tu compris?
|
|
|
|
---
|
|
|
|
_**Assistant**_
|
|
|
|
Examinons plus précisément quel rapport est réellement utilisé par l'agent JSON.
|
|
|
|
Dans `orchestrator.py`, l'agent JSON est appelé via cette séquence:
|
|
|
|
1. Dans la méthode `traiter_ticket()`, l'orchestrateur commence par chercher les rapports avec `trouver_rapport(extraction_path, ticket_id)`
|
|
2. Ensuite, il prépare les données du ticket avec `_preparer_donnees_ticket(rapports, ticket_id)`
|
|
3. Si des données sont trouvées, il appelle l'agent JSON avec `self.json_agent.executer(ticket_data)`
|
|
|
|
La méthode `_preparer_donnees_ticket()` est cruciale. Elle essaie d'abord de charger les données depuis un fichier JSON. Si cela échoue, elle essaie de charger depuis un fichier Markdown en utilisant `_extraire_donnees_de_markdown()`.
|
|
|
|
En analysant le code, je constate que:
|
|
|
|
1. L'orchestrateur cherche d'abord le fichier `"{ticket_id}_rapport.json"`
|
|
2. Si ce fichier n'existe pas ou s'il y a une erreur, il essaie de charger `"{ticket_id}_rapport.md"`
|
|
3. La méthode `_extraire_donnees_de_markdown()` convertit le contenu Markdown en une structure de données similaire à celle attendue du fichier JSON
|
|
|
|
Donc, l'agent JSON peut en fait traiter des données provenant d'un fichier Markdown, mais seulement après que l'orchestrateur ait converti le contenu Markdown en une structure de données appropriée.
|
|
|
|
Si le rapport Markdown est le format principal utilisé, il faudrait renommer l'agent en quelque chose comme `AgentTicketAnalyser` au lieu de `AgentJsonAnalyser` pour refléter sa capacité à traiter des données de différentes sources, pas seulement JSON. De plus, il faudrait ajuster sa configuration pour mieux gérer les particularités des données extraites du Markdown.
|
|
|
|
Est-ce que cette analyse répond à votre question?
|
|
|
|
---
|
|
|
|
_**User**_
|
|
|
|
oui que ferais tu pour améliorer ce fonctionnement
|
|
|
|
---
|
|
|
|
_**Assistant**_
|
|
|
|
Pour améliorer ce fonctionnement, voici mes recommandations :
|
|
|
|
1. **Renommer l'agent** pour refléter sa fonction réelle :
|
|
- Renommer `AgentJsonAnalyser` en `AgentTicketAnalyser` ou `AgentRapportAnalyser`
|
|
- Mettre à jour les références dans `orchestrator.py` pour utiliser le nouveau nom
|
|
|
|
2. **Restructurer le traitement des fichiers** :
|
|
- Créer une abstraction de source de données avec des implémentations spécifiques pour JSON et Markdown
|
|
- Implémenter une classe `TicketDataLoader` avec des méthodes spécifiques pour chaque format
|
|
|
|
3. **Améliorer l'extraction des données Markdown** :
|
|
- Renforcer la robustesse de la méthode `_extraire_donnees_de_markdown()`
|
|
- Ajouter des validations pour s'assurer que tous les champs obligatoires sont présents
|
|
- Gérer correctement les formats de date et les types de données
|
|
|
|
4. **Restructurer le prompt système** :
|
|
- Adapter le prompt système pour qu'il soit plus flexible quant à la source des données
|
|
- Inclure des instructions spécifiques pour le traitement des données issues du Markdown
|
|
|
|
5. **Ajouter une détection de format** :
|
|
- Implémenter une méthode de détection automatique du format pour mieux adapter le traitement
|
|
- Ajouter des métadonnées sur la source dans les données traitées
|
|
|
|
6. **Meilleure gestion des erreurs** :
|
|
- Ajouter des logs détaillés sur le type de fichier traité et les problèmes rencontrés
|
|
- Gérer proprement les cas où la structure du Markdown ne correspond pas aux attentes
|
|
|
|
7. **Documentation claire** :
|
|
- Documenter les formats attendus pour les fichiers Markdown
|
|
- Expliquer comment l'agent interprète différentes sections du Markdown
|
|
|
|
8. **Tests spécifiques** :
|
|
- Ajouter des tests unitaires spécifiques pour chaque format de fichier
|
|
- Valider que le traitement est cohérent entre les formats JSON et Markdown
|
|
|
|
Ces améliorations permettraient d'avoir un agent plus flexible, capable de traiter efficacement les deux formats tout en maintenant une cohérence dans l'analyse produite.
|
|
|
|
---
|
|
|
|
_**User**_
|
|
|
|
tu peux procéder aux améliorations que tu viens de me donner
|
|
|
|
---
|
|
|
|
_**Assistant**_
|
|
|
|
Je vais procéder aux améliorations suggérées. Commençons par examiner la structure actuelle puis implémentons les changements nécessaires.
|
|
|
|
---
|
|
|
|
<details>
|
|
<summary>Searched codebase "agents base_agent.py" • **25** results</summary>
|
|
|
|
| File | Lines |
|
|
|------|-------|
|
|
| `agents/base_agent.py` | L1-29 |
|
|
| `agents/agent_report_generator.py` | L227-249 |
|
|
| `agents/agent_image_analyser.py` | L1-39 |
|
|
| `agents/agent_report_generator.py` | L249-282 |
|
|
| `agents/agent_json_analyser.py` | L1-32 |
|
|
| `agents/agent_image_analyser.py` | L190-221 |
|
|
| `agents/agent_image_analyser.py` | L105-143 |
|
|
| `agents/agent_report_generator.py` | L69-98 |
|
|
| `agents/agent_image_sorter.py` | L114-152 |
|
|
| `agents/agent_json_analyser.py` | L63-109 |
|
|
| `agents/agent_image_sorter.py` | L1-48 |
|
|
| `agents/agent_json_analyser.py` | L109-160 |
|
|
| `agents/agent_image_analyser.py` | L70-105 |
|
|
| `agents/agent_image_sorter.py` | L335-370 |
|
|
| `agents/agent_image_sorter.py` | L152-185 |
|
|
| `agents/agent_report_generator.py` | L98-134 |
|
|
| `agents/agent_report_generator.py` | L1-38 |
|
|
| `agents/agent_image_analyser.py` | L287-320 |
|
|
| `agents/agent_image_sorter.py` | L262-294 |
|
|
| `agents/agent_image_sorter.py` | L294-335 |
|
|
| `agents/agent_image_sorter.py` | L370-385 |
|
|
| `agents/agent_image_sorter.py` | L185-224 |
|
|
| `agents/agent_image_analyser.py` | L143-190 |
|
|
| `agents/agent_report_generator.py` | L282-311 |
|
|
| `agents/agent_report_generator.py` | L173-206 |
|
|
|
|
</details>
|
|
|
|
---
|
|
|
|
Maintenant, vérifions la structure du projet pour mieux comprendre comment les fichiers sont organisés.
|
|
|
|
---
|
|
|
|
<details>
|
|
<summary>Listed directory agents • **7** results</summary>
|
|
|
|
| Name |
|
|
|-------|
|
|
| 📄 `agent_image_analyser.py` |
|
|
| 📄 `agent_image_sorter.py` |
|
|
| 📄 `agent_json_analyser.py` |
|
|
| 📄 `agent_report_generator.py` |
|
|
| 📄 `agent_report_generator.py.backup` |
|
|
| 📄 `base_agent.py` |
|
|
| 📁 `__pycache__` |
|
|
|
|
</details>
|
|
|
|
---
|
|
|
|
Examinons plus en détail le module d'extraction des données à partir de Markdown :
|
|
|
|
---
|
|
|
|
Read file: utils/markdown_to_json.py
|
|
|
|
---
|
|
|
|
Maintenant, réalisons les améliorations suggérées. Commençons par créer un nouvel agent plus générique (renommer l'agent) et implémenter une meilleure gestion des différents formats.
|
|
|
|
1. Créons d'abord un module pour charger les données de tickets :
|
|
|
|
---
|
|
|
|
```diff
|
|
-
|
|
+ import os
|
|
+ import re
|
|
+ import json
|
|
+ import logging
|
|
+ from typing import Dict, Optional, Any, List, Union
|
|
+ from abc import ABC, abstractmethod
|
|
+
|
|
+ logger = logging.getLogger("TicketDataLoader")
|
|
+
|
|
+ class TicketDataSource(ABC):
|
|
+ """Classe abstraite pour les sources de données de tickets"""
|
|
+
|
|
+ @abstractmethod
|
|
+ def charger(self, chemin_fichier: str) -> Dict[str, Any]:
|
|
+ """Charge les données du ticket depuis un fichier source"""
|
|
+ pass
|
|
+
|
|
+ @abstractmethod
|
|
+ def get_format(self) -> str:
|
|
+ """Retourne le format de la source de données"""
|
|
+ pass
|
|
+
|
|
+ def valider_donnees(self, donnees: Dict[str, Any]) -> bool:
|
|
+ """Vérifie si les données chargées contiennent les champs obligatoires"""
|
|
+ champs_obligatoires = ["code", "name"]
|
|
+ return all(field in donnees for field in champs_obligatoires)
|
|
+
|
|
+
|
|
+ class JsonTicketSource(TicketDataSource):
|
|
+ """Source de données pour les tickets au format JSON"""
|
|
+
|
|
+ def charger(self, chemin_fichier: str) -> Dict[str, Any]:
|
|
+ """Charge les données du ticket depuis un fichier JSON"""
|
|
+ try:
|
|
+ with open(chemin_fichier, 'r', encoding='utf-8') as f:
|
|
+ donnees = json.load(f)
|
|
+
|
|
+ # Ajout de métadonnées sur la source
|
|
+ if "metadata" not in donnees:
|
|
+ donnees["metadata"] = {}
|
|
+
|
|
+ donnees["metadata"]["source_file"] = chemin_fichier
|
|
+ donnees["metadata"]["format"] = "json"
|
|
+
|
|
+ return donnees
|
|
+ except Exception as e:
|
|
+ logger.error(f"Erreur lors du chargement du fichier JSON {chemin_fichier}: {str(e)}")
|
|
+ raise ValueError(f"Impossible de charger le fichier JSON: {str(e)}")
|
|
+
|
|
+ def get_format(self) -> str:
|
|
+ return "json"
|
|
+
|
|
+
|
|
+ class MarkdownTicketSource(TicketDataSource):
|
|
+ """Source de données pour les tickets au format Markdown"""
|
|
+
|
|
+ def charger(self, chemin_fichier: str) -> Dict[str, Any]:
|
|
+ """Charge les données du ticket depuis un fichier Markdown"""
|
|
+ try:
|
|
+ with open(chemin_fichier, 'r', encoding='utf-8') as f:
|
|
+ contenu_md = f.read()
|
|
+
|
|
+ # Extraire les données du contenu Markdown
|
|
+ donnees = self._extraire_donnees_de_markdown(contenu_md)
|
|
+
|
|
+ # Ajout de métadonnées sur la source
|
|
+ if "metadata" not in donnees:
|
|
+ donnees["metadata"] = {}
|
|
+
|
|
+ donnees["metadata"]["source_file"] = chemin_fichier
|
|
+ donnees["metadata"]["format"] = "markdown"
|
|
+
|
|
+ return donnees
|
|
+ except Exception as e:
|
|
+ logger.error(f"Erreur lors du chargement du fichier Markdown {chemin_fichier}: {str(e)}")
|
|
+ raise ValueError(f"Impossible de charger le fichier Markdown: {str(e)}")
|
|
+
|
|
+ def get_format(self) -> str:
|
|
+ return "markdown"
|
|
+
|
|
+ def _extraire_donnees_de_markdown(self, contenu_md: str) -> Dict[str, Any]:
|
|
+ """Extrait les données structurées d'un contenu Markdown"""
|
|
+ donnees = {}
|
|
+
|
|
+ # Diviser le contenu en sections
|
|
+ sections = re.split(r"\n## ", contenu_md)
|
|
+
|
|
+ # Traiter chaque section
|
|
+ for section in sections:
|
|
+ if section.startswith("Informations du ticket"):
|
|
+ ticket_info = self._analyser_infos_ticket(section)
|
|
+ donnees.update(ticket_info)
|
|
+ elif section.startswith("Messages"):
|
|
+ messages = self._analyser_messages(section)
|
|
+ donnees["messages"] = messages
|
|
+ elif section.startswith("Informations sur l'extraction"):
|
|
+ extraction_info = self._analyser_infos_extraction(section)
|
|
+ donnees.update(extraction_info)
|
|
+
|
|
+ # Réorganiser les champs pour que la description soit après "name"
|
|
+ ordered_fields = ["id", "code", "name", "description"]
|
|
+ ordered_data = {}
|
|
+
|
|
+ # D'abord ajouter les champs dans l'ordre spécifié
|
|
+ for field in ordered_fields:
|
|
+ if field in donnees:
|
|
+ ordered_data[field] = donnees[field]
|
|
+
|
|
+ # Ensuite ajouter les autres champs
|
|
+ for key, value in donnees.items():
|
|
+ if key not in ordered_data:
|
|
+ ordered_data[key] = value
|
|
+
|
|
+ # S'assurer que la description est présente
|
|
+ if "description" not in ordered_data:
|
|
+ ordered_data["description"] = ""
|
|
+
|
|
+ return ordered_data
|
|
+
|
|
+ def _analyser_infos_ticket(self, section: str) -> Dict[str, Any]:
|
|
+ """Analyse la section d'informations du ticket"""
|
|
+ info = {}
|
|
+ description = []
|
|
+ capturing_description = False
|
|
+
|
|
+ lines = section.strip().split("\n")
|
|
+ i = 0
|
|
+ while i < len(lines):
|
|
+ line = lines[i]
|
|
+
|
|
+ # Si on est déjà en train de capturer la description
|
|
+ if capturing_description:
|
|
+ # Vérifie si on atteint une nouvelle section ou un nouveau champ
|
|
+ if i + 1 < len(lines) and (lines[i + 1].startswith("## ") or lines[i + 1].startswith("- **")):
|
|
+ capturing_description = False
|
|
+ info["description"] = "\n".join(description).strip()
|
|
+ else:
|
|
+ description.append(line)
|
|
+ i += 1
|
|
+ continue
|
|
+
|
|
+ # Détecte le début de la description
|
|
+ desc_match = re.match(r"- \*\*description\*\*:", line)
|
|
+ if desc_match:
|
|
+ capturing_description = True
|
|
+ i += 1 # Passe à la ligne suivante
|
|
+ continue
|
|
+
|
|
+ # Traite les autres champs normalement
|
|
+ match = re.match(r"- \*\*(.*?)\*\*: (.*)", line)
|
|
+ if match:
|
|
+ key, value = match.groups()
|
|
+ key = key.lower().replace("/", "_").replace(" ", "_")
|
|
+ info[key] = value.strip()
|
|
+
|
|
+ i += 1
|
|
+
|
|
+ # Si on finit en capturant la description, l'ajouter au dictionnaire
|
|
+ if capturing_description and description:
|
|
+ info["description"] = "\n".join(description).strip()
|
|
+ elif "description" not in info:
|
|
+ info["description"] = ""
|
|
+
|
|
+ return info
|
|
+
|
|
+ def _analyser_messages(self, section: str) -> List[Dict[str, Any]]:
|
|
+ """Analyse la section des messages"""
|
|
+ messages = []
|
|
+ current_message = {}
|
|
+ in_message = False
|
|
+
|
|
+ lines = section.strip().split("\n")
|
|
+
|
|
+ for line in lines:
|
|
+ if line.startswith("### Message"):
|
|
+ if current_message:
|
|
+ messages.append(current_message)
|
|
+ current_message = {}
|
|
+ in_message = True
|
|
+
|
|
+ elif line.startswith("**") and in_message:
|
|
+ match = re.match(r"\*\*(.*?)\*\*: (.*)", line)
|
|
+ if match:
|
|
+ key, value = match.groups()
|
|
+ key = key.lower().replace("/", "_").replace(" ", "_")
|
|
+ current_message[key] = value.strip()
|
|
+ else:
|
|
+ if in_message:
|
|
+ current_message["content"] = current_message.get("content", "") + line + "\n"
|
|
+
|
|
+ if current_message:
|
|
+ messages.append(current_message)
|
|
+
|
|
+ # Nettoyer le contenu des messages
|
|
+ for message in messages:
|
|
+ if "content" in message:
|
|
+ message["content"] = message["content"].strip()
|
|
+
|
|
+ return messages
|
|
+
|
|
+ def _analyser_infos_extraction(self, section: str) -> Dict[str, Any]:
|
|
+ """Analyse la section d'informations sur l'extraction"""
|
|
+ extraction_info = {}
|
|
+
|
|
+ lines = section.strip().split("\n")
|
|
+ for line in lines:
|
|
+ match = re.match(r"- \*\*(.*?)\*\*: (.*)", line)
|
|
+ if match:
|
|
+ key, value = match.groups()
|
|
+ key = key.lower().replace("/", "_").replace(" ", "_")
|
|
+ extraction_info[key] = value.strip()
|
|
+
|
|
+ return extraction_info
|
|
+
|
|
+
|
|
+ class TicketDataLoader:
|
|
+ """Classe pour charger les données de tickets à partir de différentes sources"""
|
|
+
|
|
+ def __init__(self):
|
|
+ self.sources = {
|
|
+ "json": JsonTicketSource(),
|
|
+ "markdown": MarkdownTicketSource()
|
|
+ }
|
|
+
|
|
+ def detecter_format(self, chemin_fichier: str) -> str:
|
|
+ """Détecte le format du fichier à partir de son extension"""
|
|
+ ext = os.path.splitext(chemin_fichier)[1].lower()
|
|
+ if ext == '.json':
|
|
+ return "json"
|
|
+ elif ext in ['.md', '.markdown']:
|
|
+ return "markdown"
|
|
+ else:
|
|
+ raise ValueError(f"Format de fichier non supporté: {ext}")
|
|
+
|
|
+ def charger(self, chemin_fichier: str, format_force: Optional[str] = None) -> Dict[str, Any]:
|
|
+ """
|
|
+ Charge les données d'un ticket à partir d'un fichier
|
|
+
|
|
+ Args:
|
|
+ chemin_fichier: Chemin du fichier à charger
|
|
+ format_force: Format à utiliser (ignore la détection automatique)
|
|
+
|
|
+ Returns:
|
|
+ Dictionnaire contenant les données du ticket
|
|
+ """
|
|
+ if not os.path.exists(chemin_fichier):
|
|
+ raise FileNotFoundError(f"Le fichier {chemin_fichier} n'existe pas")
|
|
+
|
|
+ format_fichier = format_force if format_force else self.detecter_format(chemin_fichier)
|
|
+
|
|
+ if format_fichier not in self.sources:
|
|
+ raise ValueError(f"Format non supporté: {format_fichier}")
|
|
+
|
|
+ logger.info(f"Chargement des données au format {format_fichier} depuis {chemin_fichier}")
|
|
+ donnees = self.sources[format_fichier].charger(chemin_fichier)
|
|
+
|
|
+ # Validation des données
|
|
+ if not self.sources[format_fichier].valider_donnees(donnees):
|
|
+ logger.warning(f"Les données chargées depuis {chemin_fichier} ne contiennent pas tous les champs obligatoires")
|
|
+
|
|
+ return donnees
|
|
+
|
|
+ def trouver_ticket(self, dossier: str, ticket_id: str) -> Optional[Dict[str, str]]:
|
|
+ """
|
|
+ Recherche les fichiers de ticket dans différents emplacements possibles
|
|
+
|
|
+ Args:
|
|
+ dossier: Dossier de base pour la recherche
|
|
+ ticket_id: ID du ticket (ex: T0101)
|
|
+
|
|
+ Returns:
|
|
+ Dictionnaire avec les chemins des fichiers trouvés par format
|
|
+ """
|
|
+ resultats = {"json": None, "markdown": None}
|
|
+
|
|
+ # Liste des emplacements possibles pour les rapports
|
|
+ emplacements_possibles = [
|
|
+ # 1. Dans le répertoire d'extraction directement
|
|
+ dossier,
|
|
+
|
|
+ # 2. Dans un sous-répertoire "data"
|
|
+ os.path.join(dossier, "data"),
|
|
+
|
|
+ # 3. Dans un sous-répertoire spécifique au ticket pour les rapports
|
|
+ os.path.join(dossier, f"{ticket_id}_rapports"),
|
|
+
|
|
+ # 4. Dans un sous-répertoire "rapports"
|
|
+ os.path.join(dossier, "rapports")
|
|
+ ]
|
|
+
|
|
+ # Vérifier chaque emplacement
|
|
+ for base_location in emplacements_possibles:
|
|
+ # Chercher le fichier JSON
|
|
+ json_path = os.path.join(base_location, f"{ticket_id}_rapport.json")
|
|
+ if os.path.exists(json_path):
|
|
+ logger.info(f"Rapport JSON trouvé à: {json_path}")
|
|
+ resultats["json"] = json_path
|
|
+
|
|
+ # Chercher le fichier Markdown
|
|
+ md_path = os.path.join(base_location, f"{ticket_id}_rapport.md")
|
|
+ if os.path.exists(md_path):
|
|
+ logger.info(f"Rapport Markdown trouvé à: {md_path}")
|
|
+ resultats["markdown"] = md_path
|
|
+
|
|
+ if not resultats["json"] and not resultats["markdown"]:
|
|
+ logger.warning(f"Aucun rapport trouvé pour {ticket_id} dans {dossier}")
|
|
+ return None
|
|
+
|
|
+ return resultats
|
|
```
|
|
|
|
---
|
|
|
|
|
|
|
|
---
|
|
|
|
|
|
|
|
---
|
|
|