Blur PII server-side (core/anonymisation/pii_blur.py) : - Pipeline OCR (docTR) → NER (EDS-NLP + fallback regex) - Détection ciblée noms/prénoms/adresses/NIR/téléphone/email - Protection explicite CIM-10, CCAM, montants €, dates, IDs techniques - Dual-storage : shot_XXXX_full.png (brut) + _blurred.png (affichage) - 18 tests Client : - RPA_BLUR_SENSITIVE=false par défaut (blur serveur uniquement) - Zéro overhead côté poste utilisateur VLM config : - vlm_config.py : gemma4:latest, fallbacks qwen3-vl:8b + UI-TARS - think=false auto pour gemma4 (bug Ollama 0.20.x) - VLM provider VWB : local-first (Ollama), cloud opt-in via VLM_ALLOW_CLOUD Co-Authored-By: Claude Opus 4.6 (1M context) <noreply@anthropic.com>
58 lines
2.2 KiB
Plaintext
58 lines
2.2 KiB
Plaintext
# RPA Vision V3 Configuration
|
|
# Copier ce fichier en .env et modifier les valeurs
|
|
# cp .env.example .env
|
|
|
|
# ============================================================================
|
|
# Environment
|
|
# ============================================================================
|
|
ENVIRONMENT=development # development, staging, production
|
|
DEBUG=false
|
|
|
|
# ============================================================================
|
|
# Server
|
|
# ============================================================================
|
|
API_HOST=0.0.0.0
|
|
API_PORT=8000
|
|
DASHBOARD_HOST=0.0.0.0
|
|
DASHBOARD_PORT=5001
|
|
|
|
# ============================================================================
|
|
# Security (REQUIRED in production!)
|
|
# ============================================================================
|
|
# Générer avec: python -c "import secrets; print(secrets.token_urlsafe(32))"
|
|
# ENCRYPTION_PASSWORD=your_secure_password_here
|
|
# SECRET_KEY=your_secret_key_here
|
|
# ALLOWED_ORIGINS=https://yourdomain.com,https://api.yourdomain.com
|
|
|
|
# ============================================================================
|
|
# Models
|
|
# ============================================================================
|
|
CLIP_MODEL=ViT-B-32
|
|
CLIP_PRETRAINED=openai
|
|
CLIP_DEVICE=cpu # cpu or cuda
|
|
RPA_VLM_MODEL=gemma4:latest # gemma4:latest (défaut), qwen3-vl:8b, ui-tars (fallback)
|
|
VLM_MODEL=gemma4:latest # alias de compatibilité
|
|
# VLM_ALLOW_CLOUD=false # true pour activer les APIs cloud en fallback (OpenAI, Gemini, Anthropic)
|
|
VLM_ENDPOINT=http://localhost:11434
|
|
OWL_MODEL=google/owlv2-base-patch16-ensemble
|
|
OWL_CONFIDENCE_THRESHOLD=0.1
|
|
|
|
# ============================================================================
|
|
# Paths
|
|
# ============================================================================
|
|
DATA_PATH=data
|
|
MODELS_PATH=models
|
|
LOGS_PATH=logs
|
|
UPLOADS_PATH=data/training/uploads
|
|
SESSIONS_PATH=data/training/sessions
|
|
|
|
# ============================================================================
|
|
# FAISS
|
|
# ============================================================================
|
|
FAISS_DIMENSIONS=512
|
|
FAISS_INDEX_TYPE=Flat # Flat, IVF, HNSW
|
|
FAISS_METRIC=cosine # cosine, l2, ip
|
|
FAISS_NPROBE=8
|
|
FAISS_AUTO_OPTIMIZE=true
|
|
FAISS_MIGRATION_THRESHOLD=10000
|