feat: modèle par défaut gemma3:27b-cloud pour meilleure qualité
Le 27b-cloud via Ollama Cloud est plus rapide (2m25 vs 4m) et produit des résultats nettement supérieurs au 12b local : - CPAM : plus de confusion Z45.80/Z43.6, preuves non hallucinées - Contre-argumentation : 5334 chars vs 4394, citations du dossier - Fallback local possible via OLLAMA_MODEL=gemma3:12b Co-Authored-By: Claude Opus 4.6 <noreply@anthropic.com>
This commit is contained in:
@@ -35,7 +35,7 @@ NER_CONFIDENCE_THRESHOLD = float(os.environ.get("T2A_NER_THRESHOLD", "0.80"))
|
||||
# --- Configuration Ollama ---
|
||||
|
||||
OLLAMA_URL = os.environ.get("OLLAMA_URL", "http://localhost:11434")
|
||||
OLLAMA_MODEL = os.environ.get("OLLAMA_MODEL", "gemma3:12b")
|
||||
OLLAMA_MODEL = os.environ.get("OLLAMA_MODEL", "gemma3:27b-cloud")
|
||||
OLLAMA_TIMEOUT = int(os.environ.get("OLLAMA_TIMEOUT", "120"))
|
||||
OLLAMA_CACHE_PATH = BASE_DIR / "data" / "ollama_cache.json"
|
||||
OLLAMA_MAX_PARALLEL = int(os.environ.get("OLLAMA_MAX_PARALLEL", "2"))
|
||||
|
||||
Reference in New Issue
Block a user