Sécurité VLM : format JSON forcé, modèle local uniquement, fix logging critique
- vlm_manager: ajout format:json dans payload Ollama (élimine hallucinations JSON) - vlm_manager: retour modèle local qwen2.5vl:7b (sécurité données médicales) - anonymizer_core: ajout import logging (fix NameError silencieux qui tuait le VLM) - anonymizer_core: masquage direct pages manuscrites (suppression rotation inutile) - GUI: intégration checkbox VLM + auto-load EDS-Pseudo prioritaire Co-Authored-By: Claude Opus 4.6 <noreply@anthropic.com>
This commit is contained in:
@@ -61,10 +61,8 @@ class EdsPseudoManager:
|
||||
self.model_id = model_id_or_path
|
||||
path = Path(model_id_or_path)
|
||||
if path.is_dir():
|
||||
# Chargement local (modèle fine-tuné)
|
||||
self._nlp = edsnlp.load(path)
|
||||
else:
|
||||
# Chargement depuis HuggingFace Hub
|
||||
self._nlp = edsnlp.load(model_id_or_path)
|
||||
self._loaded = True
|
||||
|
||||
|
||||
Reference in New Issue
Block a user