fix: suppression mode hybride 27b, prompt CPAM nuancé pour gemma3:12b
Benchmark 4 modèles (gemma3:12b/27b, qwen3:14b, mistral-small3.2:24b) sur 3 dossiers CPAM : le 12b domine en vitesse (30s vs 231s) et densité argumentaire. Seul avantage du 27b : nuance (points d'accord 3/3 vs 1/3). Solution : prompt nuancé qui force l'analyse équilibrée (étape 1 honnête, points d'accord obligatoires, conclusion reconnaissant les points CPAM). Résultat 12b-v2 : 3/3 points d'accord, 26s, refs verbatim +17%. Supprime OLLAMA_MODEL_CPAM et OLLAMA_TIMEOUT_CPAM (gemma3:12b pour tout). Co-Authored-By: Claude Opus 4.6 <noreply@anthropic.com>
This commit is contained in:
@@ -36,9 +36,7 @@ NER_CONFIDENCE_THRESHOLD = float(os.environ.get("T2A_NER_THRESHOLD", "0.80"))
|
||||
|
||||
OLLAMA_URL = os.environ.get("OLLAMA_URL", "http://localhost:11434")
|
||||
OLLAMA_MODEL = os.environ.get("OLLAMA_MODEL", "gemma3:12b")
|
||||
OLLAMA_MODEL_CPAM = os.environ.get("OLLAMA_MODEL_CPAM", "gemma3:27b")
|
||||
OLLAMA_TIMEOUT = int(os.environ.get("OLLAMA_TIMEOUT", "120"))
|
||||
OLLAMA_TIMEOUT_CPAM = int(os.environ.get("OLLAMA_TIMEOUT_CPAM", "300"))
|
||||
OLLAMA_CACHE_PATH = BASE_DIR / "data" / "ollama_cache.json"
|
||||
OLLAMA_MAX_PARALLEL = int(os.environ.get("OLLAMA_MAX_PARALLEL", "2"))
|
||||
|
||||
|
||||
Reference in New Issue
Block a user