Files
rpa_vision_v3/.env.example
Dom 5e31cdf666 feat(agent_chat): bus feedback Léa 'lea:*' derrière flag LEA_FEEDBACK_BUS
Surface d'observation pour bulles temps réel ChatWindow (J2 démo GHT Sud 95).

- Helper _emit_lea(event, payload): no-op silencieux si flag off
- Helper _emit_dual(legacy, lea, payload): émet event existant + alias 'lea:*'
- Détection paused_need_help dans _poll_replay_progress → lea:paused
- Détection sortie de pause → lea:resumed
- Timeout étendu (120s→600s) pendant pause supervisée
- 12 emits SocketIO existants aliasés (execution_started/progress/completed,
  copilot_step/step_result/complete) — payloads identiques, zéro régression

Flag LEA_FEEDBACK_BUS=0 par défaut. Comportement legacy strictement préservé.
8 tests pytest verts (tests/integration/test_feedback_bus.py).

Co-Authored-By: Claude Opus 4.7 (1M context) <noreply@anthropic.com>
2026-04-27 21:48:38 +02:00

66 lines
2.7 KiB
Plaintext

# RPA Vision V3 Configuration
# Copier ce fichier en .env et modifier les valeurs
# cp .env.example .env
# ============================================================================
# Environment
# ============================================================================
ENVIRONMENT=development # development, staging, production
DEBUG=false
# ============================================================================
# Server
# ============================================================================
API_HOST=0.0.0.0
API_PORT=8000
DASHBOARD_HOST=0.0.0.0
DASHBOARD_PORT=5001
# ============================================================================
# Security (REQUIRED in production!)
# ============================================================================
# Générer avec: python -c "import secrets; print(secrets.token_urlsafe(32))"
# ENCRYPTION_PASSWORD=your_secure_password_here
# SECRET_KEY=your_secret_key_here
# ALLOWED_ORIGINS=https://yourdomain.com,https://api.yourdomain.com
# ============================================================================
# Models
# ============================================================================
CLIP_MODEL=ViT-B-32
CLIP_PRETRAINED=openai
CLIP_DEVICE=cpu # cpu or cuda
RPA_VLM_MODEL=gemma4:latest # gemma4:latest (défaut), qwen3-vl:8b, ui-tars (fallback)
VLM_MODEL=gemma4:latest # alias de compatibilité
# VLM_ALLOW_CLOUD=false # true pour activer les APIs cloud en fallback (OpenAI, Gemini, Anthropic)
VLM_ENDPOINT=http://localhost:11434
OWL_MODEL=google/owlv2-base-patch16-ensemble
OWL_CONFIDENCE_THRESHOLD=0.1
# ============================================================================
# Paths
# ============================================================================
DATA_PATH=data
MODELS_PATH=models
LOGS_PATH=logs
UPLOADS_PATH=data/training/uploads
SESSIONS_PATH=data/training/sessions
# ============================================================================
# Feedback Bus (Léa parle pendant exécution)
# ============================================================================
# Bus SocketIO unifié 'lea:*' (action_started, action_done, need_confirm, paused).
# Désactivé par défaut. Mettre à 1 pour activer les bulles temps réel dans ChatWindow.
# Si la connexion bus échoue, l'exécution continue normalement (fail-safe).
LEA_FEEDBACK_BUS=0
# ============================================================================
# FAISS
# ============================================================================
FAISS_DIMENSIONS=512
FAISS_INDEX_TYPE=Flat # Flat, IVF, HNSW
FAISS_METRIC=cosine # cosine, l2, ip
FAISS_NPROBE=8
FAISS_AUTO_OPTIMIZE=true
FAISS_MIGRATION_THRESHOLD=10000