mirror of
https://github.com/Ladebeze66/llm_lab.git
synced 2025-12-13 10:46:50 +01:00
68 lines
2.9 KiB
Python
68 lines
2.9 KiB
Python
import requests
|
|
import os
|
|
from datetime import datetime
|
|
import uuid
|
|
|
|
class BaseLLM:
|
|
def __init__(self, model_name, engine="Ollama", base_params=None, stream=False):
|
|
"""
|
|
Classe de base pour tous les LLM. Ne contient aucune valeur fixe propre à un modèle.
|
|
Les paramètres sont injectés depuis les classes spécifiques
|
|
"""
|
|
self.model = model_name
|
|
self.engine = engine
|
|
self.agent = None
|
|
self.system_prompt = ""
|
|
|
|
self.params = base_params or {}
|
|
self.params["model"] = self.model
|
|
self.params["stream"] = stream
|
|
|
|
self.logs_dir = "logs"
|
|
os.makedirs(self.logs_dir, exist_ok=True)
|
|
|
|
def set_role(self, role_name, role_config):
|
|
"""Assigne un rôle d'agent avec prompt système et paramètres personnalisés."""
|
|
self.agent = role_name
|
|
self.system_prompt = role_config.get("system_prompt", "")
|
|
self.params.update(role_config.get("params", {}))
|
|
|
|
def generate(self, user_prompt):
|
|
"""Méthode à surcharger dans les lcasses enfants pour appeler le modèle."""
|
|
raise NotImplementedError("La méthode generate() doit être implémentée dans la classe enfant.")
|
|
|
|
def _format_prompt(self, user_prompt):
|
|
if self.system_prompt:
|
|
return f"{self.system_prompt}\n\n{user_prompt}"
|
|
return user_prompt
|
|
|
|
def _log_result(self, prompt, response):
|
|
now = datetime.now()
|
|
now_str = now.strftime("%Y-%m-%d_%H-%M-%S")
|
|
uid = str(uuid.uuid4())[:8] # ID unique pour le log
|
|
filename = f"{self.logs_dir}/{self.model}_{now_str}_{uid}.md"
|
|
|
|
with open(filename, "w", encoding="utf-8") as f:
|
|
f.write(f"# Résultat génération {self.model}\n\n")
|
|
f.write(f"** Test ID:** {uid}\n")
|
|
f.write(f"** Date :** {now.strftime('%Y-%m-%d %H:%M:%S')}\n")
|
|
f.write(f"** Modèle :** {self.model}\n")
|
|
f.write(f"** Moteur :** {self.engine}\n")
|
|
f.write(f"** Rôle :** {self.agent or 'Aucun'}\n")
|
|
f.write(f"** Prompt :** {prompt}\n\n---\n\n")
|
|
f.write(f"** Paramètres utilisés :**\n\n")
|
|
for k, v in self.params.items():
|
|
if k not in ["model", "prompt"]:
|
|
value = " / ".join(v) if isinstance(v, list) else v or "*Aucun*"
|
|
f.write(f"- {k.replace('_', '').title()} : {value}\n")
|
|
f.write(f"\n---\n\n** Réponse du modèle\n\n{response.strip()}\n")
|
|
|
|
self._update_index(filename)
|
|
return filename
|
|
|
|
def _update_index(self, filename):
|
|
with open("log_index.md", "a", encoding="utf-8") as idx:
|
|
idx.write(f"- **{datetime.now().strftime('%Y-%m-%d %H:%M:%S')}** | ")
|
|
idx.write(f"🧠 `{self.model}` ({self.engine}) | 🎭 `{self.agent or 'Aucun'}` | ")
|
|
idx.write(f"[Voir le log]({filename})\n")
|
|
|