Files
rpa_vision_v3/.env.example
Dom f7b8cddd2b feat(anonymisation): blur PII côté serveur via EDS-NLP + VLM local-first
Blur PII server-side (core/anonymisation/pii_blur.py) :
- Pipeline OCR (docTR) → NER (EDS-NLP + fallback regex)
- Détection ciblée noms/prénoms/adresses/NIR/téléphone/email
- Protection explicite CIM-10, CCAM, montants €, dates, IDs techniques
- Dual-storage : shot_XXXX_full.png (brut) + _blurred.png (affichage)
- 18 tests

Client :
- RPA_BLUR_SENSITIVE=false par défaut (blur serveur uniquement)
- Zéro overhead côté poste utilisateur

VLM config :
- vlm_config.py : gemma4:latest, fallbacks qwen3-vl:8b + UI-TARS
- think=false auto pour gemma4 (bug Ollama 0.20.x)
- VLM provider VWB : local-first (Ollama), cloud opt-in via VLM_ALLOW_CLOUD

Co-Authored-By: Claude Opus 4.6 (1M context) <noreply@anthropic.com>
2026-04-14 16:48:23 +02:00

58 lines
2.2 KiB
Plaintext

# RPA Vision V3 Configuration
# Copier ce fichier en .env et modifier les valeurs
# cp .env.example .env
# ============================================================================
# Environment
# ============================================================================
ENVIRONMENT=development # development, staging, production
DEBUG=false
# ============================================================================
# Server
# ============================================================================
API_HOST=0.0.0.0
API_PORT=8000
DASHBOARD_HOST=0.0.0.0
DASHBOARD_PORT=5001
# ============================================================================
# Security (REQUIRED in production!)
# ============================================================================
# Générer avec: python -c "import secrets; print(secrets.token_urlsafe(32))"
# ENCRYPTION_PASSWORD=your_secure_password_here
# SECRET_KEY=your_secret_key_here
# ALLOWED_ORIGINS=https://yourdomain.com,https://api.yourdomain.com
# ============================================================================
# Models
# ============================================================================
CLIP_MODEL=ViT-B-32
CLIP_PRETRAINED=openai
CLIP_DEVICE=cpu # cpu or cuda
RPA_VLM_MODEL=gemma4:latest # gemma4:latest (défaut), qwen3-vl:8b, ui-tars (fallback)
VLM_MODEL=gemma4:latest # alias de compatibilité
# VLM_ALLOW_CLOUD=false # true pour activer les APIs cloud en fallback (OpenAI, Gemini, Anthropic)
VLM_ENDPOINT=http://localhost:11434
OWL_MODEL=google/owlv2-base-patch16-ensemble
OWL_CONFIDENCE_THRESHOLD=0.1
# ============================================================================
# Paths
# ============================================================================
DATA_PATH=data
MODELS_PATH=models
LOGS_PATH=logs
UPLOADS_PATH=data/training/uploads
SESSIONS_PATH=data/training/sessions
# ============================================================================
# FAISS
# ============================================================================
FAISS_DIMENSIONS=512
FAISS_INDEX_TYPE=Flat # Flat, IVF, HNSW
FAISS_METRIC=cosine # cosine, l2, ip
FAISS_NPROBE=8
FAISS_AUTO_OPTIMIZE=true
FAISS_MIGRATION_THRESHOLD=10000