# === Référentiels PDF (chemins absolus vers les PDFs ATIH) === # T2A_CIM10_PDF=/chemin/vers/cim-10-fr.pdf # T2A_GUIDE_METHODO_PDF=/chemin/vers/guide_methodo_mco.pdf # T2A_CCAM_PDF=/chemin/vers/ccam_descriptive.pdf # === Ollama === # OLLAMA_URL=http://localhost:11434 # OLLAMA_MODEL=gemma3:27b # OLLAMA_TIMEOUT=600 # OLLAMA_MAX_PARALLEL=2 # === Modèles par rôle LLM === # T2A_MODEL_CODING=gemma3:27b # Codage CIM-10/CCAM, extraction DAS # T2A_MODEL_CPAM=mistral-small3.2:24b # CPAM passe 1 + passe 2 (TIM complet, bonne précision bio) # T2A_MODEL_VALIDATION=qwen3:32b # Validation adversariale (rapide, modèle différent → LOGIC-3 actif) # T2A_MODEL_QC=gemma3:12b # QC batch justifications # # IMPORTANT : T2A_MODEL_CPAM et T2A_MODEL_VALIDATION DOIVENT être différents # en production pour que la validation adversariale soit réellement indépendante. # Si identiques, la validation adversariale est automatiquement dégradée (LOGIC-3). # # Benchmark (dossier 183_23087212, machine locale) : # mistral-small3.2:24b → TIM complet, meilleure précision bio, 430s # qwen3:32b → TIM complet, rapide (302s), JSON fiable # gemma3:27b → hallucinations bio, format TIM non respecté # llama3.3:70b → riche mais trop lent (1743s), nécessite DGX Spark # === Sélecteur DP (NUKE-3) === # T2A_DP_RANKER_LLM=1 # 1/true/yes = LLM tiebreaker actif, 0/false/no = pré-ranker déterministe uniquement # Note : l'ancien nom DP_RANKER_LLM_ENABLED est accepté mais déprécié. # === Modèles IA === # T2A_EMBEDDING_MODEL=dangvantuan/sentence-camembert-large # T2A_NER_MODEL=Jean-Baptiste/camembert-ner # T2A_NER_THRESHOLD=0.80 # === Établissement === # T2A_FINESS=000000000 # T2A_NUM_UM=0000 # === Anonymisation === # T2A_KEEP_ESTABLISHMENT=True