Files
rpa_vision_v3/pytest.ini
Dom 99041f0117 feat: pipeline complet MACRO/MÉSO/MICRO — Critic, Observer, Policy, Recovery, Learning, Audit Trail, TaskPlanner
Architecture 3 niveaux implémentée et testée (137 tests unitaires + 21 visuels) :

MÉSO (acteur intelligent) :
- P0 Critic : vérification sémantique post-action via gemma4 (replay_verifier.py)
- P1 Observer : pré-analyse écran avant chaque action (api_stream.py /pre_analyze)
- P2 Grounding/Policy : séparation localisation (grounding.py) et décision (policy.py)
- P3 Recovery : rollback automatique Ctrl+Z/Escape/Alt+F4 (recovery.py)
- P4 Learning : apprentissage runtime avec boucle de consolidation (replay_learner.py)

MACRO (planificateur) :
- TaskPlanner : comprend les ordres en langage naturel via gemma4 (task_planner.py)
- Contexte métier TIM/CIM-10 pour les hôpitaux (domain_context.py)
- Endpoint POST /api/v1/task pour l'exécution par instruction

Traçabilité :
- Audit trail complet avec 18 champs par action (audit_trail.py)
- Endpoints GET /audit/history, /audit/summary, /audit/export (CSV)

Grounding :
- Fix parsing bbox_2d qwen2.5vl (pixels relatifs, pas grille 1000x1000)
- Benchmarks visuels sur captures réelles (3 approches : baseline, zoom, Citrix)
- Reproductibilité validée : variance < 0.008 sur 10 itérations

Sécurité :
- Tokens de production retirés du code source → .env.local
- Secret key aléatoire si non configuré
- Suppression logs qui leakent les tokens

Résultats : 80% de replay (vs 12.5% avant), 100% détection visuelle Citrix JPEG Q20

Co-Authored-By: Claude Opus 4.6 (1M context) <noreply@anthropic.com>
2026-04-09 21:03:25 +02:00

36 lines
1.3 KiB
INI

[pytest]
# Configuration pytest pour RPA Vision V3
# Auteur: Dom, Alice Kiro - 15 décembre 2024
# Fiche #4: Tests stables et reproductibles
# Répertoires de tests
testpaths = tests
# Options par défaut
addopts = -q --tb=short --strict-markers
# Markers personnalisés
markers =
unit: Unit tests (rapides, isolés)
integration: Integration tests (plus lents, dépendances)
performance: Performance tests (benchmarks)
slow: Slow tests (skip avec -m "not slow")
smoke: Smoke tests E2E (barrière anti-régression)
fiche1: Tests Fiche #1 (aliases compatibilité)
fiche2: Tests Fiche #2 (corrections BBOX)
fiche3: Tests Fiche #3 (context hints composite)
fiche4: Tests Fiche #4 (imports stables)
fiche5: Tests Fiche #5 (smoke test E2E minimal)
fiche6: Tests Fiche #6 (sniper mode ranking)
fiche7: Tests Fiche #7 (container preference et form logic)
fiche8: Tests Fiche #8 (anti-bugs terrain)
fiche9: Tests Fiche #9 (postconditions retry backoff)
fiche10: Tests Fiche #10 (precision metrics engine)
visual: Tests visuels sur captures réelles (nécessite serveur GPU)
# Note: Chemins Python gérés par tests/conftest.py
# Filtres de warnings
filterwarnings =
ignore::DeprecationWarning
ignore::PendingDeprecationWarning