- Multi-modèles : 4 rôles LLM (coding=gemma3:27b-cloud, cpam=gemma3:27b-cloud, validation=deepseek-v3.2:cloud, qc=gemma3:12b) avec get_model(role) - Prompts externalisés : 7 templates dans src/prompts/templates.py - Cache Ollama : modèle stocké par entrée (migration auto ancien format) - call_ollama() : paramètre role= (priorité: model > role > global) - Quality engine : veto_engine + decision_engine + rules_router (YAML) - Benchmark qualité : scripts/benchmark_quality.py (A/B, métriques CIM-10) - Fix biologie : valeurs qualitatives (troponine négative) non filtrées - Fix CPAM : gemma3:27b-cloud au lieu de deepseek (JSON tronqué par thinking) - CPAM max_tokens 4000→6000, viewer admin multi-modèles - Benchmark 10 dossiers : 100% DAS valides, 10/10 CPAM, 243s/dossier Co-Authored-By: Claude Opus 4.6 <noreply@anthropic.com>
19 lines
331 B
Plaintext
19 lines
331 B
Plaintext
pdfplumber>=0.10.0
|
|
transformers>=4.35.0,<5.0.0
|
|
torch>=2.1.0
|
|
protobuf>=3.20.0,<4.0.0
|
|
regex>=2023.0
|
|
pydantic>=2.5.0
|
|
pytest>=7.4.0
|
|
sentencepiece>=0.1.99,<0.2.0
|
|
edsnlp[ml]>=0.17.0
|
|
faiss-cpu>=1.7.0
|
|
sentence-transformers>=2.2.0
|
|
requests>=2.28.0
|
|
flask>=3.0.0
|
|
python-dotenv>=1.0.0
|
|
openpyxl>=3.0.0
|
|
pandas>=2.0.0
|
|
PyMuPDF>=1.24.0
|
|
PyYAML>=6.0
|