Files
t2a/requirements.txt
dom 540e0cb400 feat: architecture multi-modèles LLM + externalisation des prompts
- Ajout OLLAMA_MODELS (coding/cpam/validation/qc) dans config.py avec get_model()
- Paramètre role= dans call_ollama() pour dispatch par rôle
- Cache Ollama : modèle stocké par entrée (migration auto de l'ancien format)
- 7 prompts externalisés dans src/prompts/templates.py (format str.format)
- Viewer : admin multi-modèles, endpoint PDF avec redaction, source texte
- Documentation prompts dans docs/prompts.md

Co-Authored-By: Claude Opus 4.6 <noreply@anthropic.com>
2026-02-19 20:51:52 +01:00

18 lines
319 B
Plaintext

pdfplumber>=0.10.0
transformers>=4.35.0,<5.0.0
torch>=2.1.0
protobuf>=3.20.0,<4.0.0
regex>=2023.0
pydantic>=2.5.0
pytest>=7.4.0
sentencepiece>=0.1.99,<0.2.0
edsnlp[ml]>=0.17.0
faiss-cpu>=1.7.0
sentence-transformers>=2.2.0
requests>=2.28.0
flask>=3.0.0
python-dotenv>=1.0.0
openpyxl>=3.0.0
pandas>=2.0.0
PyMuPDF>=1.24.0