|
1 | 1 | from fastapi import APIRouter, Depends, BackgroundTasks, HTTPException |
2 | 2 | from pydantic import BaseModel |
3 | 3 | from typing import List, Dict, Any |
4 | | -from sqlmodel import Session, select, delete |
| 4 | +from sqlmodel import Session, select, delete, desc |
5 | 5 | from app.db.session import get_session |
6 | 6 | from app.db.models import ChatInteraction |
7 | 7 | from app.services.rag_engine import RAGService |
@@ -45,61 +45,78 @@ async def chat_endpoint( |
45 | 45 | background_tasks: BackgroundTasks, |
46 | 46 | db: Session = Depends(get_session) |
47 | 47 | ): |
48 | | - # Recherche RAG (incluant maintenant les règles statiques Bonjour/Merci) |
| 48 | + history_items = db.exec( |
| 49 | + select(ChatInteraction) |
| 50 | + .where(ChatInteraction.user_session_id == request.user_id) |
| 51 | + .order_by(desc(ChatInteraction.timestamp)) |
| 52 | + .limit(5) |
| 53 | + ).all() |
| 54 | + history_items = history_items[::-1] |
| 55 | + history_text = "\n".join( |
| 56 | + [f"User: {h.message}\nAssistant: {h.response}" for h in history_items] |
| 57 | + ) if history_items else "Aucun historique récent." |
| 58 | + |
49 | 59 | rag_result = rag_service.search(request.message, threshold=settings.CONFIDENCE_THRESHOLD) |
50 | | - |
51 | 60 | response_text = "" |
52 | 61 | provider = "retrieval_only" |
53 | 62 | confidence = rag_result["confidence"] |
54 | 63 | matched_q = rag_result["matched_question"] |
55 | | - # Si le moteur RAG a trouvé une règle statique (Bonjour), on l'utilise directement |
| 64 | + context_faq = rag_result["answer"] if rag_result["answer"] else "" |
| 65 | + |
56 | 66 | if rag_result.get("provider") == "static_rule": |
57 | | - response_text = rag_result["answer"] |
58 | | - provider = "static_rule" |
59 | | - # La confiance est déjà à 1.0 grâce à la modif dans rag_engine.py |
| 67 | + return ChatResponse( |
| 68 | + response=rag_result["answer"], |
| 69 | + confidence=1.0, |
| 70 | + provider="static_rule", |
| 71 | + retrieval_only=True, |
| 72 | + is_new_question=False |
| 73 | + ) |
| 74 | + # Cas A : Confiance TRÈS élevée -> FAQ Directe |
| 75 | + if context_faq and confidence >= settings.DIRECT_ANSWER_THRESHOLD: |
| 76 | + response_text = context_faq |
| 77 | + provider = "retrieval_high_confidence" |
| 78 | + # Cas B : Passage au LLM |
60 | 79 | else: |
61 | | - # Décision : RAG ou LLM ? |
62 | | - should_use_llm = request.use_llm and (confidence < 0.65) |
63 | | - if not should_use_llm and rag_result["answer"]: |
64 | | - # Cas : Réponse trouvée dans la FAQ avec une bonne confiance |
65 | | - response_text = rag_result["answer"] |
66 | | - else: |
67 | | - # Cas : Pas de réponse FAQ ou confiance faible -> Appel LLM |
68 | | - context = rag_result["answer"] if rag_result["answer"] else "" |
69 | | - |
70 | | - prompt = f"""Tu es un assistant support client expert. |
71 | | -Contexte issu de la base de connaissances : "{context}" |
72 | | -Question utilisateur : "{request.message}" |
| 80 | + system_prompt = f"""Tu es un assistant support client utile et précis. |
| 81 | +
|
| 82 | +CONTEXTE FAQ (Peut être vide ou peu pertinent, score={confidence:.2f}) : |
| 83 | +"{context_faq}" |
73 | 84 |
|
74 | | -Instructions : |
75 | | -- Si le contexte répond à la question, reformule-le poliment. |
76 | | -- Si le contexte est vide ou non pertinent, réponds avec tes connaissances générales en restant bref. |
77 | | -- Réponds en français. |
| 85 | +HISTORIQUE : |
| 86 | +{history_text} |
| 87 | +
|
| 88 | +INSTRUCTIONS : |
| 89 | +1. Utilise le CONTEXTE FAQ en priorité s'il semble répondre à la question. |
| 90 | +2. Si le contexte est vide ou hors-sujet, utilise tes connaissances. |
| 91 | +3. Réponds toujours poliment et en français. |
78 | 92 | """ |
79 | | - llm_result = await llm_orchestrator.generate_response(prompt) |
| 93 | + if request.use_llm: |
| 94 | + llm_result = await llm_orchestrator.generate_response( |
| 95 | + f"{system_prompt}\n\nUser: {request.message}" |
| 96 | + ) |
80 | 97 |
|
81 | 98 | if llm_result["status"] == "success": |
82 | 99 | response_text = llm_result["response"] |
83 | | - provider = llm_result["provider"] |
84 | | - confidence = 1.0 |
85 | | - |
| 100 | + provider = f"llm_{llm_result['provider']}" |
86 | 101 | else: |
87 | | - # Fallback ultime |
88 | | - response_text = rag_result["answer"] or "Désolé, je n'ai pas la réponse et mes services IA sont indisponibles." |
| 102 | + response_text = context_faq or "Désolé, mes services d'IA sont indisponibles." |
89 | 103 | provider = "fallback_error" |
| 104 | + else: |
| 105 | + response_text = context_faq or "Je n'ai pas trouvé de réponse exacte." |
90 | 106 |
|
91 | 107 | # Sauvegarde |
92 | 108 | background_tasks.add_task( |
93 | 109 | save_interaction_task, db, request.user_id, request.message, response_text, confidence, provider |
94 | 110 | ) |
| 111 | + is_retrieval = provider in ["retrieval_high_confidence", "static_rule", "retrieval_only"] |
95 | 112 |
|
96 | 113 | return ChatResponse( |
97 | 114 | response=response_text, |
98 | 115 | confidence=confidence, |
99 | 116 | provider=provider, |
100 | 117 | matched_question=matched_q, |
101 | | - retrieval_only=(provider == "retrieval_only" or provider == "static_rule"), |
102 | | - is_new_question=(rag_result["confidence"] < 0.45 and provider != "static_rule") # On marque comme "new" seulement si ce n'est pas un "Bonjour" |
| 118 | + retrieval_only=is_retrieval, |
| 119 | + is_new_question=(confidence < settings.CONFIDENCE_THRESHOLD) |
103 | 120 | ) |
104 | 121 |
|
105 | 122 | @router.get("/llm/status") |
|
0 commit comments