dom
909e051cc9
feat: architecture multi-modèles LLM + quality engine + benchmark
- Multi-modèles : 4 rôles LLM (coding=gemma3:27b-cloud, cpam=gemma3:27b-cloud,
validation=deepseek-v3.2:cloud, qc=gemma3:12b) avec get_model(role)
- Prompts externalisés : 7 templates dans src/prompts/templates.py
- Cache Ollama : modèle stocké par entrée (migration auto ancien format)
- call_ollama() : paramètre role= (priorité: model > role > global)
- Quality engine : veto_engine + decision_engine + rules_router (YAML)
- Benchmark qualité : scripts/benchmark_quality.py (A/B, métriques CIM-10)
- Fix biologie : valeurs qualitatives (troponine négative) non filtrées
- Fix CPAM : gemma3:27b-cloud au lieu de deepseek (JSON tronqué par thinking)
- CPAM max_tokens 4000→6000, viewer admin multi-modèles
- Benchmark 10 dossiers : 100% DAS valides, 10/10 CPAM, 243s/dossier
Co-Authored-By: Claude Opus 4.6 <noreply@anthropic.com>
2026-02-20 00:21:09 +01:00
..
2026-02-10 15:24:12 +01:00
2026-02-10 15:24:12 +01:00
2026-02-11 11:41:39 +01:00
2026-02-11 12:43:34 +01:00
2026-02-13 14:03:10 +01:00
2026-02-17 21:47:27 +01:00
2026-02-12 13:44:34 +01:00
2026-02-20 00:21:09 +01:00
2026-02-18 19:20:50 +01:00
2026-02-12 23:46:42 +01:00
2026-02-11 08:53:14 +01:00
2026-02-10 15:24:12 +01:00
2026-02-17 17:53:53 +01:00
2026-02-12 13:44:34 +01:00
2026-02-10 15:24:12 +01:00
2026-02-17 21:47:27 +01:00
2026-02-18 20:59:50 +01:00
2026-02-20 00:21:09 +01:00
2026-02-17 17:53:53 +01:00
2026-02-15 11:34:32 +01:00
2026-02-12 23:12:39 +01:00
2026-02-12 13:44:34 +01:00
2026-02-17 17:53:53 +01:00
2026-02-17 17:53:53 +01:00
2026-02-20 00:21:09 +01:00