Files
rpa_vision_v3/docs
Dom b92cb9db03 feat: Phase 1 apprentissage — greffe TargetMemoryStore sur V4
Greffe minimale du mécanisme d'apprentissage persistant (Fiche #18,
target_memory_store.py) sur le pipeline streaming V4 sans toucher à V3.

Architecture (docs/PLAN_APPRENTISSAGE_LEA.md) :
- Lookup mémoire AVANT la cascade résolution coûteuse OCR/template/VLM
  dans _resolve_target_sync → hit = <10ms, miss = overhead zéro
- Record APRÈS validation post-condition (title_match strict)
  dans /replay/result → 2 succès → cristallisation par répétition
- Single source of truth : l'agent remplit report.actual_position avec
  les coords effectivement cliquées, le serveur les lit directement.
  Pas de cache intermédiaire (option C du plan).

Signature écran V4 : sha256(normalize(window_title))[:16]. Robuste aux
données variables, faux positifs rattrapés par le post-cond qui
décrémente la fiabilité via record_failure().

Fichiers :
- agent_v0/server_v1/replay_memory.py : nouveau wrapper 316 lignes
  exposant compute_screen_sig/memory_lookup/record_success/failure,
  lazy-init du store, normalisation texte stable, garde sanity coords
- agent_v0/server_v1/resolve_engine.py : lookup mémoire en tête de
  _resolve_target_sync (30 lignes)
- agent_v0/server_v1/replay_engine.py : _create_replay_state stocke
  une copie slim des actions (sans anchor base64) pour retrouver le
  target_spec par current_action_index
- agent_v0/server_v1/api_stream.py : 4 callers passent actions=...,
  record success/failure dans /replay/result lit actual_position
  du rapport (click-only), correction du commentaire Pydantic
- agent_v0/agent_v1/core/executor.py : remplit result["actual_position"]
  après self._click(), transmis dans le report de poll_and_execute

Tests : 56 E2E + Phase0 passent, zéro régression. Cycle Phase 1 validé
en simulation : miss → record → miss → record → HIT au 3ème passage.

Le deploy copy executor.py a une divergence pré-existante de 1302
lignes non committées — traité séparément lors du cleanup prochain.

Co-Authored-By: Claude Opus 4.6 (1M context) <noreply@anthropic.com>
2026-04-10 21:08:14 +02:00
..

Documentation RPA Vision V3

📚 Organisation

reference/ - Documents de Référence Architecture

Documents techniques décrivant l'architecture complète du système :

  • ARCHITECTURE_VISION_COMPLETE.md - Architecture complète en 5 couches (ESSENTIEL)
  • ARCHITECTURE_ENRICHISSEMENTS.md - 8 enrichissements production-ready
  • ARCHITECTURE_INDEX.md - Index de navigation
  • ENRICHISSEMENTS_RESUME.md - Résumé des enrichissements
  • START_HERE.md - Point de départ pour comprendre l'architecture
  • QUICK_SUMMARY.txt - Résumé rapide
  • SESSION_COMPLETE_22_NOV.md - Session de travail complète
  • RESUME_CREATION_DOCS.md - Historique de création
  • CHANGELOG_MVP.md - Changelog du MVP

specs/ - Spécification d'Implémentation

Spécification complète pour l'implémentation :

  • requirements.md - 15 requirements avec 89 critères d'acceptation
  • design.md - Design détaillé avec 20 correctness properties
  • tasks.md - Plan d'implémentation en 13 phases avec 60+ tâches

Autres Documents

  • ROADMAP_RPA_100_VISION.md - Vision et roadmap du projet

🎯 Par Où Commencer ?

Pour Comprendre l'Architecture

  1. Lire : reference/START_HERE.md
  2. Approfondir : reference/ARCHITECTURE_VISION_COMPLETE.md
  3. Enrichissements : reference/ARCHITECTURE_ENRICHISSEMENTS.md

Pour Implémenter

  1. Requirements : specs/requirements.md
  2. Design : specs/design.md
  3. Tasks : specs/tasks.md

Pour la Vision Globale

  • Roadmap : ROADMAP_RPA_100_VISION.md

🏗️ Architecture en 5 Couches

Couche 0: RawSession
    ↓
Couche 1: ScreenState (4 niveaux)
    ↓
Couche 2: UIElement Detection
    ↓
Couche 3: State Embedding
    ↓
Couche 4: Workflow Graph

📖 Concepts Clés

RPA 100% Vision

  • Pas de coordonnées (x, y) fixes
  • Rôles sémantiques (primary_action, form_input, etc.)
  • Matching par similarité visuelle et textuelle
  • Robuste aux changements d'UI

Workflow Graph

  • WorkflowNode : Template d'état d'écran
  • WorkflowEdge : Transition (action) entre nodes
  • Learning States : OBSERVATION → COACHING → AUTO_CANDIDATE → AUTO_CONFIRMÉ

State Embedding

Fusion multi-modale :

  • 50% Image (screenshot complet)
  • 30% Texte (texte détecté)
  • 10% Titre (fenêtre)
  • 10% UI (éléments détectés)

🔗 Liens Utiles

  • Code source : ../core/
  • Tests : ../tests/
  • Données : ../data/
  • README principal : ../README.md