mirror of
https://github.com/Ladebeze66/llm_lab_perso.git
synced 2025-12-15 19:16:51 +01:00
34 lines
1.5 KiB
Python
34 lines
1.5 KiB
Python
from core.factory import LLMFactory
|
|
|
|
def test_all_models():
|
|
"""Test simple de tous les modèles disponibles"""
|
|
# Liste des modèles à tester
|
|
model_names = ["mistral7b", "codellama13b-python", "llama2-13b"]
|
|
|
|
for model_name in model_names:
|
|
print(f"\nTest du modèle {model_name}:")
|
|
try:
|
|
# Instanciation du modèle via la factory
|
|
model = LLMFactory.create(model_name)
|
|
print(f"✓ Modèle {model_name} instancié avec succès")
|
|
|
|
# Test des attributs basiques
|
|
assert model.model is not None, "Le nom du modèle est None"
|
|
assert model.engine is not None, "Le moteur du modèle est None"
|
|
print(f"✓ Attributs du modèle {model_name} vérifiés")
|
|
|
|
# Test d'accès aux paramètres
|
|
assert model.params is not None, "Les paramètres sont None"
|
|
assert "temperature" in model.params, "Le paramètre temperature n'est pas défini"
|
|
print(f"✓ Paramètres du modèle {model_name} vérifiés")
|
|
|
|
# Affichage des informations du modèle
|
|
print(f" - Nom du modèle: {model.model}")
|
|
print(f" - Moteur: {model.engine}")
|
|
print(f" - Température: {model.params.get('temperature')}")
|
|
|
|
except Exception as e:
|
|
print(f"✗ Erreur avec le modèle {model_name}: {str(e)}")
|
|
|
|
if __name__ == "__main__":
|
|
test_all_models() |