Sécurité VLM : format JSON forcé, modèle local uniquement, fix logging critique

- vlm_manager: ajout format:json dans payload Ollama (élimine hallucinations JSON)
- vlm_manager: retour modèle local qwen2.5vl:7b (sécurité données médicales)
- anonymizer_core: ajout import logging (fix NameError silencieux qui tuait le VLM)
- anonymizer_core: masquage direct pages manuscrites (suppression rotation inutile)
- GUI: intégration checkbox VLM + auto-load EDS-Pseudo prioritaire

Co-Authored-By: Claude Opus 4.6 <noreply@anthropic.com>
This commit is contained in:
2026-02-27 02:38:30 +01:00
parent 125ac82f4f
commit 86274b3b2a
4 changed files with 117 additions and 37 deletions

View File

@@ -61,10 +61,8 @@ class EdsPseudoManager:
self.model_id = model_id_or_path
path = Path(model_id_or_path)
if path.is_dir():
# Chargement local (modèle fine-tuné)
self._nlp = edsnlp.load(path)
else:
# Chargement depuis HuggingFace Hub
self._nlp = edsnlp.load(model_id_or_path)
self._loaded = True