from agents.llama_vision.agent_vision_ocr import AgentVisionOCR from llm_classes.llama_vision import LlamaVision import json import os # Créer les répertoires de résultats s'ils n'existent pas os.makedirs("results/ocr_brut", exist_ok=True) os.makedirs("results/ocr_avance", exist_ok=True) # Instanciation du modèle model = LlamaVision() agent = AgentVisionOCR(model) # Affichage des paramètres actifs print("🔵 Paramètres actifs LLM:") print(json.dumps(agent.llm.params, indent=2)) # Image à tester image_path = "output/ticket_T11143/T11143_20250422_084617/attachments/image_145435.png" # Test de l'OCR res = agent.executer(image_path) print(f"\n🔵 Résultat pour l'image {image_path}:") print(f"Texte extrait:\n{res['extracted_text']}\n") # Affichage des chemins de sortie print(f"✅ Résultats OCR brut sauvegardés dans: results/ocr_brut/") print(f"✅ Résultats OCR avancé sauvegardés dans: results/ocr_avance/")