mirror of
https://github.com/Ladebeze66/coffreobsidian.git
synced 2025-12-16 21:27:48 +01:00
3.8 KiB
3.8 KiB
🎯 Tutoriel : Intégrer codellama:13b-python dans Cursor avec la Sidebar + Cline
Ce guide complet t’explique comment :
- Intégrer le modèle codellama:13b-python local (via Ollama) dans Cursor
- L’utiliser dans la sidebar des agents + Ask de Cursor
- Configurer Cline pour tirer le meilleur de ton modèle local
✅ Prérequis
- ✅ Ollama est installé et configuré
- ✅ Modèle téléchargé :
ollama pull codellama:13b-python - ✅ Variable
OLLAMA_MODELScorrectement configurée si besoin - ✅ Cursor est installé (https://cursor.so)
🧱 Étape 1 : Vérifier que le modèle fonctionne
Dans ton terminal :
ollama run codellama:13b-python
Tu dois pouvoir chatter avec le modèle en ligne de commande.
🛠️ Étape 2 : Configurer cursor-agent.json
- À la racine de ton projet, crée un fichier :
cursor-agent.json
- Mets-y ceci :
{
"name": "CodeLlama Local",
"entry": "main.py",
"llm": {
"provider": "custom",
"completion_url": "http://localhost:11434/api/generate",
"method": "POST",
"headers": {
"Content-Type": "application/json"
},
"input_key": "prompt",
"output_key": "response"
}
}
🧠 Étape 3 : Créer un script Python minimal main.py
import sys
import json
import requests
prompt = sys.stdin.read().strip()
payload = {
"model": "codellama:13b-python",
"prompt": prompt,
"stream": False
}
res = requests.post("http://localhost:11434/api/generate", json=payload)
print(json.dumps({"response": res.json().get("response", "")}))
✅ Ce script lit un prompt depuis Cursor, interroge Ollama, et retourne la réponse.
🧪 Étape 4 : Vérifier que Cursor reconnaît le modèle
- Ouvre Cursor
- Clique sur la sidebar des agents (Ask) à gauche
- Tu devrais voir CodeLlama Local dans la liste
- Clique dessus et tape une commande (ex :
Peux-tu générer une fonction en Python ?)
✅ Si tout est bien configuré, tu verras la réponse de codellama s’afficher.
💬 Étape 5 : Utiliser le modèle avec Cline
🔹 Qu’est-ce que Cline ?
Cline est la barre latérale à droite de Cursor qui te permet de :
- Sélectionner un modèle
- Voir l’historique des prompts
- Travailler sur une sélection de code
📌 Utilisation :
- Sélectionne du code dans un fichier Python
- Tape
//pour activer le prompt intégré - Cursor ouvrira automatiquement Cline
- Clique sur la flèche déroulante à côté de "Model" et choisis CodeLlama Local
✅ Astuces :
-
Tu peux taper des prompts personnalisés du style :
- "Optimise ce code."
- "Corrige les erreurs."
- "Ajoute un docstring."
-
Les suggestions s’appliqueront directement sur le code sélectionné
🔧 Étape 6 : Personnaliser encore plus avec des agents dynamiques
Tu peux relier main.py à ta propre classe Python d’agent (voir tutoriels précédents) pour :
- Définir un rôle spécifique à chaque agent
- Créer une interface CLI
- Injecter des prompts système
🧹 Étape 7 : Résolution de problèmes
- Si
CodeLlama Localn’apparaît pas : redémarre Cursor ou vérifie que tu es dans le bon dossier - Si rien ne s'affiche : assure-toi que le service Ollama tourne (tester avec
ollama run) - Pour voir les erreurs de Cursor :
Ctrl+Shift+I> Console
✅ Tu es prêt !
Tu peux maintenant :
- Utiliser ton modèle local dans la sidebar Ask de Cursor
- Poser des questions directement dans le cline à droite
- Interagir avec
codellama:13b-pythonsans dépendre de l’API OpenAI ou d’internet
Souhaites-tu maintenant que je te génère des variantes avec rôles dynamiques par agent ou une intégration CLI/Streamlit ?