mirror of
https://github.com/Ladebeze66/AIagent.git
synced 2025-12-13 09:06:49 +01:00
first commit
This commit is contained in:
parent
157355b2cb
commit
0512d48ab2
10987
.specstory/<!-- Generated by SpecStory -->.md
Normal file
10987
.specstory/<!-- Generated by SpecStory -->.md
Normal file
File diff suppressed because it is too large
Load Diff
@ -10979,6 +10979,441 @@ fgras-ca@PC-DEV:~/AIagent2$
|
||||
|
||||
J'ai complètement revu le script pour pr
|
||||
|
||||
---
|
||||
|
||||
_**User**_
|
||||
|
||||
|
||||
|
||||
---
|
||||
|
||||
_**Assistant**_
|
||||
|
||||
Je vais continuer en français comme demandé dans les instructions personnalisées.
|
||||
|
||||
J'ai complètement revu le script pour prendre en charge les différents types de conversations de Cursor (chat, agent, ask, edit). Les principales modifications incluent :
|
||||
|
||||
1. Support multi-types :
|
||||
- Détection des différents dossiers de conversations par type
|
||||
- Structure de données adaptée pour chaque type de conversation
|
||||
- Préfixage des fichiers exportés avec le type de conversation
|
||||
|
||||
2. Nouvelles fonctionnalités :
|
||||
- Option `--type` pour filtrer le type de conversations à exporter
|
||||
- Option `--copier-local` pour copier les conversations dans un dossier local
|
||||
- Création d'exemples de test pour chaque type de conversation
|
||||
|
||||
3. Améliorations techniques :
|
||||
- Meilleure gestion des dates avec support de différents formats
|
||||
- Typage explicite avec `typing` pour éviter les erreurs
|
||||
- Support de différentes structures de données selon le type de conversation
|
||||
|
||||
Le script fonctionne maintenant comme prévu, créant des fichiers de test et les exportant correctement en Markdown. Les tests montrent que :
|
||||
- Les fichiers de test sont créés dans `cursor_chats/`
|
||||
- L'export combiné est généré dans `cursor_exports/toutes_conversations.md`
|
||||
- Le formatage Markdown est correct avec une bonne hiérarchie
|
||||
|
||||
Voulez-vous que je vous montre comment utiliser une fonctionnalité particulière du script ?
|
||||
|
||||
---
|
||||
|
||||
_**User**_
|
||||
|
||||
je voudrai simplement avec mon test_class.py appellé une instance de mon API mistral pour lister les différents modèles présents
|
||||
|
||||
---
|
||||
|
||||
_**Assistant**_
|
||||
|
||||
Je vais vous montrer comment créer un exemple simple pour lister les modèles disponibles avec l'API Mistral.
|
||||
|
||||
```python
|
||||
# test_class.py
|
||||
|
||||
from mistral_api import MistralAPI
|
||||
|
||||
def main():
|
||||
# Créer une instance de MistralAPI
|
||||
mistral = MistralAPI()
|
||||
|
||||
# Lister les modèles disponibles
|
||||
try:
|
||||
modeles = mistral.lister_modeles()
|
||||
print("\nModèles Mistral disponibles:")
|
||||
print("----------------------------")
|
||||
for modele in modeles:
|
||||
print(f"- {modele}")
|
||||
except Exception as e:
|
||||
print(f"Erreur lors de la récupération des modèles: {e}")
|
||||
|
||||
if __name__ == "__main__":
|
||||
main()
|
||||
```
|
||||
|
||||
Cependant, je note que je n'ai pas accès au code exact de votre classe `MistralAPI`. Si vous avez besoin d'aide plus spécifique basée sur votre implémentation actuelle, vous pourriez :
|
||||
|
||||
1. Me montrer le code de votre classe `MistralAPI`
|
||||
2. Utiliser le mode agent qui peut accéder à votre base de code
|
||||
|
||||
Ce code suppose que votre classe `MistralAPI` a une méthode `lister_modeles()`. Si le nom de la méthode est différent dans votre implémentation, il faudra adapter le code en conséquence.
|
||||
|
||||
---
|
||||
|
||||
_**User**_
|
||||
|
||||
j'y ai accès par ma classe mistral où la clé est disponible
|
||||
|
||||
---
|
||||
|
||||
_**Assistant**_
|
||||
|
||||
D'accord, dans ce cas, voici un exemple simple pour utiliser votre classe Mistral avec la clé déjà configurée :
|
||||
|
||||
```python
|
||||
# test_class.py
|
||||
|
||||
from mistral_api import MistralAPI
|
||||
|
||||
def main():
|
||||
# Initialiser l'API Mistral (la clé est déjà gérée dans la classe)
|
||||
mistral = MistralAPI()
|
||||
|
||||
# Afficher les informations sur les modèles disponibles
|
||||
print("\nConnexion à l'API Mistral...")
|
||||
print("Récupération des modèles disponibles...")
|
||||
|
||||
try:
|
||||
modeles = mistral.lister_modeles()
|
||||
print("\nModèles disponibles :")
|
||||
print("-" * 20)
|
||||
for modele in modeles:
|
||||
print(f"- {modele}")
|
||||
|
||||
except Exception as e:
|
||||
print(f"\nErreur lors de la récupération des modèles : {e}")
|
||||
|
||||
print("\nTest terminé.")
|
||||
|
||||
if __name__ == "__main__":
|
||||
main()
|
||||
```
|
||||
|
||||
Ce script va :
|
||||
1. Importer votre classe MistralAPI
|
||||
2. Créer une instance de l'API
|
||||
3. Tenter de lister les modèles disponibles
|
||||
4. Afficher les résultats de manière formatée
|
||||
|
||||
Vous pouvez l'exécuter directement avec `python test_class.py`
|
||||
|
||||
---
|
||||
|
||||
_**User**_
|
||||
|
||||
tu as déjà un fichier mistral.py je voudrai avec test_class.py afficher les modèles de mon api pour faire une classe dédié pixtral.py une fois le nom excat du modèle identifié
|
||||
|
||||
---
|
||||
|
||||
_**Assistant**_
|
||||
|
||||
Je comprends que vous souhaitez utiliser test_class.py pour identifier le nom exact du modèle Mistral afin de créer ensuite une classe dédiée pixtral.py. Voici comment vous pouvez procéder :
|
||||
|
||||
```python
|
||||
# test_class.py
|
||||
|
||||
from mistral import MistralAPI
|
||||
|
||||
def afficher_modeles():
|
||||
"""Affiche tous les modèles disponibles via l'API Mistral"""
|
||||
print("\nTest de l'API Mistral")
|
||||
print("=" * 50)
|
||||
|
||||
try:
|
||||
# Création de l'instance Mistral
|
||||
api = MistralAPI()
|
||||
|
||||
# Récupération et affichage des modèles
|
||||
print("\nModèles disponibles :")
|
||||
print("-" * 20)
|
||||
modeles = api.lister_modeles()
|
||||
|
||||
# Affichage détaillé de chaque modèle
|
||||
for i, modele in enumerate(modeles, 1):
|
||||
print(f"\n{i}. Modèle: {modele}")
|
||||
|
||||
# Si vous voulez tester le modèle avec une requête simple
|
||||
try:
|
||||
reponse = api.generer_texte(
|
||||
"Bonjour, peux-tu te présenter en une phrase?",
|
||||
modele=modele,
|
||||
max_tokens=50
|
||||
)
|
||||
print(f" Test: {reponse[:100]}...")
|
||||
except Exception as e:
|
||||
print(f" Erreur de test: {e}")
|
||||
|
||||
print("\nVous pouvez maintenant créer votre classe pixtral.py avec le modèle souhaité")
|
||||
|
||||
except Exception as e:
|
||||
print(f"\nErreur lors de la connexion à l'API: {e}")
|
||||
|
||||
if __name__ == "__main__":
|
||||
afficher_modeles()
|
||||
```
|
||||
|
||||
Une fois que vous aurez identifié le modèle exact que vous souhaitez utiliser pour votre classe pixtral.py, vous pourrez créer cette nouvelle classe en vous basant sur ce modèle spécifique.
|
||||
|
||||
Le script va :
|
||||
1. Se connecter à l'API Mistral
|
||||
2. Lister tous les modèles disponibles
|
||||
3. Faire un petit test de génération pour chaque modèle
|
||||
4. Vous permettre d'identifier le modèle exact à utiliser pour pixtral.py
|
||||
|
||||
Vous pourrez ensuite créer votre classe pixtral.py en vous basant sur le nom exact du modèle identifié.
|
||||
|
||||
---
|
||||
|
||||
_**User**_
|
||||
|
||||
peux tu revoir ma dernière demande
|
||||
|
||||
---
|
||||
|
||||
_**Assistant**_
|
||||
|
||||
Bien sûr, je vais revoir votre demande.
|
||||
|
||||
Vous souhaitez créer un script `test_class.py` qui va utiliser un fichier existant `mistral.py` pour afficher les modèles disponibles via l'API Mistral. Une fois que vous aurez identifié le nom exact du modèle qui vous intéresse, vous voulez créer une classe dédiée dans un nouveau fichier `pixtral.py`.
|
||||
|
||||
Voici un exemple de ce que pourrait contenir votre fichier `test_class.py` :
|
||||
|
||||
```python
|
||||
# test_class.py
|
||||
|
||||
from mistral import MistralAPI # Import de votre classe existante
|
||||
|
||||
def main():
|
||||
# Création d'une instance de l'API Mistral
|
||||
mistral_api = MistralAPI()
|
||||
|
||||
print("Récupération des modèles disponibles via l'API Mistral...")
|
||||
|
||||
try:
|
||||
# Récupération de la liste des modèles
|
||||
modeles = mistral_api.lister_modeles()
|
||||
|
||||
print("\nModèles disponibles:")
|
||||
print("-" * 30)
|
||||
|
||||
# Affichage de tous les modèles disponibles
|
||||
for i, modele in enumerate(modeles, 1):
|
||||
print(f"{i}. {modele}")
|
||||
|
||||
print("\nVous pouvez maintenant créer une classe dédiée pixtral.py")
|
||||
print("en utilisant le nom exact du modèle souhaité.")
|
||||
|
||||
except Exception as e:
|
||||
print(f"Erreur lors de la récupération des modèles: {e}")
|
||||
|
||||
if __name__ == "__main__":
|
||||
main()
|
||||
```
|
||||
|
||||
Est-ce que cela correspond mieux à ce que vous cherchez à faire ?
|
||||
|
||||
---
|
||||
|
||||
_**User**_
|
||||
|
||||
je n'ai pas de MistralAPI dans ma classe
|
||||
|
||||
---
|
||||
|
||||
_**Assistant**_
|
||||
|
||||
Je vous prie de m'excuser pour cette confusion. Après avoir examiné votre code, je vois que votre classe s'appelle `Mistral` et non `MistralAPI`. Voici un exemple corrigé pour `test_class.py` qui utilise correctement votre classe :
|
||||
|
||||
```python
|
||||
# test_class.py
|
||||
|
||||
from llm_classes.mistral import Mistral
|
||||
|
||||
def main():
|
||||
# Création d'une instance de Mistral
|
||||
mistral = Mistral()
|
||||
|
||||
print("Récupération des modèles disponibles via l'API Mistral...")
|
||||
|
||||
try:
|
||||
# Récupération de la liste des modèles avec la méthode correcte
|
||||
modeles = mistral.model_list()
|
||||
|
||||
print("\nModèles disponibles:")
|
||||
print("-" * 30)
|
||||
|
||||
# Affichage de tous les modèles disponibles
|
||||
for i, modele in enumerate(modeles, 1):
|
||||
print(f"{i}. {modele}")
|
||||
|
||||
print("\nVous pouvez maintenant créer une classe dédiée pixtral.py")
|
||||
print("en utilisant le nom exact du modèle souhaité.")
|
||||
|
||||
except Exception as e:
|
||||
print(f"Erreur lors de la récupération des modèles: {e}")
|
||||
|
||||
if __name__ == "__main__":
|
||||
main()
|
||||
```
|
||||
|
||||
Cette version utilise :
|
||||
- Le bon nom de classe (`Mistral` au lieu de `MistralAPI`)
|
||||
- La bonne méthode pour lister les modèles (`model_list()` au lieu de `lister_modeles()`)
|
||||
- Le bon chemin d'importation (`from llm_classes.mistral import Mistral`)
|
||||
|
||||
Vous pourrez ensuite créer votre classe `pixtral.py` en vous inspirant de la structure de la classe `Mistral` mais en utilisant le modèle spécifique que vous aurez identifié.
|
||||
|
||||
---
|
||||
|
||||
_**User**_
|
||||
|
||||
j'ai un "pixtral-12b-latest" en te basant sur la classe mistral je voudrai que tu créé une classe pixtral avec ce nom
|
||||
|
||||
---
|
||||
|
||||
_**Assistant**_
|
||||
|
||||
Voici la classe `Pixtral` basée sur votre classe `Mistral` existante, avec le modèle "pixtral-12b-latest" :
|
||||
|
||||
```python
|
||||
# llm_classes/pixtral.py
|
||||
import json
|
||||
from typing import Dict, List, Any, Optional
|
||||
from .llm import LLM
|
||||
|
||||
class Pixtral(LLM):
|
||||
"""
|
||||
Classe pour l'intégration avec l'API Mistral AI spécifiquement pour le modèle Pixtral
|
||||
Cette classe hérite de la classe de base LLM et est spécialisée pour le modèle pixtral-12b-latest
|
||||
"""
|
||||
|
||||
def __init__(self):
|
||||
"""
|
||||
Initialisation des attributs spécifiques à Pixtral
|
||||
"""
|
||||
super().__init__()
|
||||
|
||||
# Attributs spécifiques à Pixtral
|
||||
self.maxToken: int = 1000
|
||||
self.seed: int = 0
|
||||
self.presence_penalty: float = 0
|
||||
self.frequency_penalty: float = 0
|
||||
self.n: int = 1
|
||||
self.prediction: Dict[str, str] = {"type": "content", "content": ""}
|
||||
self.safe_prompt: bool = False
|
||||
self.o_stop: str = "string"
|
||||
self._m_tabModels: List[str] = ["pixtral-12b-latest"]
|
||||
|
||||
# Initialisation par défaut avec le modèle Pixtral
|
||||
self.Modele = "pixtral-12b-latest" # Modèle fixé à pixtral-12b-latest
|
||||
self.o_temperature = 0.2
|
||||
self.o_top_p = 1
|
||||
self.maxToken = 1000
|
||||
self.presence_penalty = 0
|
||||
self.frequency_penalty = 0
|
||||
self.n = 1
|
||||
self.prediction["type"] = "content"
|
||||
self.prediction["content"] = ""
|
||||
self.safe_prompt = False
|
||||
self.o_stop = "string"
|
||||
|
||||
def urlBase(self) -> str:
|
||||
"""
|
||||
Retourne l'URL de base de l'API Mistral
|
||||
"""
|
||||
return "https://api.mistral.ai/v1/"
|
||||
|
||||
def cleAPI(self) -> str:
|
||||
"""
|
||||
Retourne la clé API Mistral
|
||||
"""
|
||||
return "2iGzTzE9csRQ9IoASoUjplHwEjA200Vh"
|
||||
|
||||
def urlFonction(self) -> str:
|
||||
"""
|
||||
Retourne l'URL de la fonction par défaut
|
||||
"""
|
||||
return "chat/completions"
|
||||
|
||||
def model_list(self) -> List[str]:
|
||||
"""
|
||||
Retourne uniquement le modèle Pixtral
|
||||
Cette classe étant spécialisée pour un modèle spécifique
|
||||
"""
|
||||
return self._m_tabModels
|
||||
|
||||
def _even_LLM_POST(self, question: str) -> None:
|
||||
"""
|
||||
Préparation du contenu de la requête pour Pixtral
|
||||
"""
|
||||
self._Contenu["model"] = self.Modele # Toujours défini sur pixtral-12b-latest
|
||||
|
||||
self._Contenu["messages"] = [
|
||||
{"role": "system", "content": self.prompt_system},
|
||||
{"role": "user", "content": question}
|
||||
]
|
||||
|
||||
self._Contenu["temperature"] = self.o_temperature
|
||||
self._Contenu["top_p"] = self.o_top_p
|
||||
|
||||
if self.maxToken != 0:
|
||||
self._Contenu["max_tokens"] = self.maxToken
|
||||
|
||||
if self.seed != 0:
|
||||
self._Contenu["random_seed"] = self.seed
|
||||
|
||||
if self.format != "":
|
||||
self._Contenu["response_format"] = self.format
|
||||
|
||||
# Paramètres supplémentaires
|
||||
self._Contenu["presence_penalty"] = self.presence_penalty
|
||||
self._Contenu["frequency_penalty"] = self.frequency_penalty
|
||||
self._Contenu["n"] = 1
|
||||
self._Contenu["prediction"] = self.prediction
|
||||
self._Contenu["stop"] = self.o_stop
|
||||
|
||||
def _interrogerRetourneReponse(self, reponse: str) -> str:
|
||||
"""
|
||||
Extraction de la réponse à partir du JSON retourné par Mistral
|
||||
"""
|
||||
data = json.loads(reponse)
|
||||
return data["choices"][0]["message"]["content"]
|
||||
```
|
||||
|
||||
Les principales différences par rapport à la classe `Mistral` :
|
||||
|
||||
1. Le nom de la classe est désormais `Pixtral`
|
||||
2. Le modèle est fixé à "pixtral-12b-latest" dans le constructeur
|
||||
3. La méthode `model_list()` retourne uniquement ce modèle spécifique
|
||||
4. J'ai ajouté `self._Contenu["model"] = self.Modele` dans la méthode `_even_LLM_POST` pour s'assurer que le modèle est bien spécifié dans la requête
|
||||
|
||||
Cette classe spécialisée vous permettra d'utiliser spécifiquement le modèle Pixtral dans vos applications sans avoir à changer le modèle à chaque utilisation.
|
||||
|
||||
---
|
||||
|
||||
_**User**_
|
||||
|
||||
u peux créer la classes pixtral comme nous venons de le voir
|
||||
|
||||
---
|
||||
|
||||
_**Assistant**_
|
||||
|
||||
Cancelled
|
||||
|
||||
---
|
||||
|
||||
|
||||
|
||||
---
|
||||
|
||||
|
||||
|
||||
BIN
llm_classes/__pycache__/pixtral.cpython-312.pyc
Normal file
BIN
llm_classes/__pycache__/pixtral.cpython-312.pyc
Normal file
Binary file not shown.
109
llm_classes/pixtral.py
Normal file
109
llm_classes/pixtral.py
Normal file
@ -0,0 +1,109 @@
|
||||
import json
|
||||
from typing import Dict, List, Any, Optional
|
||||
from .llm import LLM
|
||||
|
||||
class Pixtral(LLM):
|
||||
"""
|
||||
Classe pour l'intégration avec l'API Mistral AI spécifiquement pour le modèle Pixtral
|
||||
Cette classe hérite de la classe de base LLM et est spécialisée pour le modèle pixtral-12b-latest
|
||||
"""
|
||||
|
||||
def __init__(self):
|
||||
"""
|
||||
Initialisation des attributs spécifiques à Pixtral
|
||||
"""
|
||||
super().__init__()
|
||||
|
||||
# Attributs spécifiques à Pixtral
|
||||
self.maxToken: int = 1000
|
||||
self.seed: int = 0
|
||||
self.presence_penalty: float = 0
|
||||
self.frequency_penalty: float = 0
|
||||
self.n: int = 1
|
||||
self.prediction: Dict[str, str] = {"type": "content", "content": ""}
|
||||
self.safe_prompt: bool = False
|
||||
self.o_stop: str = "string"
|
||||
self._m_tabModels: List[str] = ["pixtral-12b-latest"]
|
||||
|
||||
# Initialisation par défaut avec le modèle Pixtral
|
||||
self.Modele = "pixtral-12b-latest" # Modèle fixé à pixtral-12b-latest
|
||||
self.o_temperature = 0.2
|
||||
self.o_top_p = 1
|
||||
self.maxToken = 1000
|
||||
self.presence_penalty = 0
|
||||
self.frequency_penalty = 0
|
||||
self.n = 1
|
||||
self.prediction["type"] = "content"
|
||||
self.prediction["content"] = ""
|
||||
self.safe_prompt = False
|
||||
self.o_stop = "string"
|
||||
|
||||
# Définir l'URL de fonction
|
||||
self.urlFonction = "chat/completions"
|
||||
|
||||
def urlBase(self) -> str:
|
||||
"""
|
||||
Retourne l'URL de base de l'API Mistral
|
||||
"""
|
||||
return "https://api.mistral.ai/v1/"
|
||||
|
||||
def cleAPI(self) -> str:
|
||||
"""
|
||||
Retourne la clé API Mistral
|
||||
"""
|
||||
return "2iGzTzE9csRQ9IoASoUjplHwEjA200Vh"
|
||||
|
||||
def model_list(self) -> List[str]:
|
||||
"""
|
||||
Retourne uniquement le modèle Pixtral
|
||||
Cette classe étant spécialisée pour un modèle spécifique
|
||||
"""
|
||||
return self._m_tabModels
|
||||
|
||||
def _even_LLM_POST(self, question: str) -> None:
|
||||
"""
|
||||
Préparation du contenu de la requête pour Pixtral
|
||||
"""
|
||||
# S'assurer que le modèle est défini
|
||||
self._Contenu["model"] = self.Modele # Toujours défini sur pixtral-12b-latest
|
||||
|
||||
self._Contenu["messages"] = [
|
||||
{"role": "system", "content": self.prompt_system},
|
||||
{"role": "user", "content": question}
|
||||
]
|
||||
|
||||
self._Contenu["temperature"] = self.o_temperature
|
||||
self._Contenu["top_p"] = self.o_top_p
|
||||
|
||||
if self.maxToken != 0:
|
||||
self._Contenu["max_tokens"] = self.maxToken
|
||||
|
||||
if self.seed != 0:
|
||||
self._Contenu["random_seed"] = self.seed
|
||||
|
||||
if self.format != "":
|
||||
self._Contenu["response_format"] = self.format
|
||||
|
||||
# Paramètres supplémentaires
|
||||
self._Contenu["presence_penalty"] = self.presence_penalty
|
||||
self._Contenu["frequency_penalty"] = self.frequency_penalty
|
||||
self._Contenu["n"] = 1
|
||||
|
||||
# Correction: s'assurer que prediction est correctement affecté
|
||||
if isinstance(self.prediction, dict):
|
||||
self._Contenu["prediction"] = self.prediction
|
||||
else:
|
||||
self._Contenu["prediction"] = {"type": "content", "content": ""}
|
||||
|
||||
# S'assurer que o_stop est une chaîne de caractères ou une liste
|
||||
if isinstance(self.o_stop, str) and self.o_stop != "string":
|
||||
self._Contenu["stop"] = self.o_stop
|
||||
elif isinstance(self.o_stop, list):
|
||||
self._Contenu["stop"] = self.o_stop
|
||||
|
||||
def _interrogerRetourneReponse(self, reponse: str) -> str:
|
||||
"""
|
||||
Extraction de la réponse à partir du JSON retourné par Mistral
|
||||
"""
|
||||
data = json.loads(reponse)
|
||||
return data["choices"][0]["message"]["content"]
|
||||
65
llm_classes/test_class.py
Normal file
65
llm_classes/test_class.py
Normal file
@ -0,0 +1,65 @@
|
||||
from llm_classes.mistral import Mistral
|
||||
from llm_classes.pixtral import Pixtral
|
||||
|
||||
def tester_mistral():
|
||||
"""Teste la classe Mistral et affiche les modèles disponibles"""
|
||||
print("\n" + "="*50)
|
||||
print("Test de la classe Mistral")
|
||||
print("="*50)
|
||||
|
||||
# Création d'une instance de Mistral
|
||||
mistral = Mistral()
|
||||
|
||||
print("Récupération des modèles disponibles via l'API Mistral...")
|
||||
|
||||
try:
|
||||
# Récupération de la liste des modèles avec la méthode correcte
|
||||
modeles = mistral.model_list()
|
||||
|
||||
print("\nModèles disponibles:")
|
||||
print("-" * 30)
|
||||
|
||||
# Affichage de tous les modèles disponibles
|
||||
for i, modele in enumerate(modeles, 1):
|
||||
print(f"{i}. {modele}")
|
||||
|
||||
except Exception as e:
|
||||
print(f"Erreur lors de la récupération des modèles: {e}")
|
||||
|
||||
def tester_pixtral():
|
||||
"""Teste la classe Pixtral spécialisée pour le modèle pixtral-12b-latest"""
|
||||
print("\n" + "="*50)
|
||||
print("Test de la classe Pixtral")
|
||||
print("="*50)
|
||||
|
||||
# Création d'une instance de Pixtral
|
||||
pixtral = Pixtral()
|
||||
|
||||
try:
|
||||
# Afficher le modèle utilisé
|
||||
print(f"\nModèle utilisé par défaut: {pixtral.Modele}")
|
||||
|
||||
# Faire une requête de test simple
|
||||
print("\nTest d'une requête simple...")
|
||||
pixtral.prompt_system = "Tu es un assistant utile, précis et concis."
|
||||
reponse = pixtral.Interroger("Présente-toi en une phrase.")
|
||||
|
||||
print("\nRéponse reçue:")
|
||||
print("-" * 30)
|
||||
print(reponse)
|
||||
|
||||
except Exception as e:
|
||||
print(f"Erreur lors du test de Pixtral: {e}")
|
||||
|
||||
def main():
|
||||
"""Fonction principale qui exécute les tests"""
|
||||
# Test de la classe Mistral
|
||||
tester_mistral()
|
||||
|
||||
# Test de la classe Pixtral
|
||||
tester_pixtral()
|
||||
|
||||
print("\nTests terminés.")
|
||||
|
||||
if __name__ == "__main__":
|
||||
main()
|
||||
Loading…
x
Reference in New Issue
Block a user