Files
rpa_vision_v3/docs/guides/QUICKSTART_REAL.md
Dom a27b74cf22 v1.0 - Version stable: multi-PC, détection UI-DETR-1, 3 modes exécution
- Frontend v4 accessible sur réseau local (192.168.1.40)
- Ports ouverts: 3002 (frontend), 5001 (backend), 5004 (dashboard)
- Ollama GPU fonctionnel
- Self-healing interactif
- Dashboard confiance

Co-Authored-By: Claude Opus 4.5 <noreply@anthropic.com>
2026-01-29 11:23:51 +01:00

1.4 KiB

Quick Start - RPA Vision V3 (RÉEL)

Installation et Setup

cd rpa_vision_v3
./run.sh

Le script run.sh va :

  • Créer le venv
  • Installer les dépendances
  • Vérifier FAISS
  • Vérifier Ollama et Qwen3-VL
  • Vérifier que les modèles sont intégrés

Tests Rapides

1. Test CLIP (Embeddings)

source venv/bin/activate
python3 examples/test_clip_simple.py

Résultat attendu:

✓ Embedding généré: shape=(512,), norme=1.0000

2. Test Pipeline Complet (CLIP + FAISS)

python3 examples/test_complete_pipeline.py

Résultat attendu:

✅ PIPELINE COMPLET FONCTIONNEL

3. Test OWL-v2 (Détection UI)

python3 examples/test_owl_simple.py

Architecture Vérifiée

OpenCLIP : Intégré dans StateEmbeddingBuilder FAISS : Indexation et recherche fonctionnelles
OWL-v2 : Intégré dans UIDetector Qwen3-VL : Disponible via Ollama

Prochaines Étapes

  1. Tester la détection UI sur une vraie capture d'écran
  2. Créer un workflow complet de bout en bout
  3. Persister l'index FAISS sur disque
  4. Intégrer avec le système de capture

Troubleshooting

FAISS non trouvé

source venv/bin/activate
pip install faiss-cpu

Ollama non installé

curl -fsSL https://ollama.com/install.sh | sh
ollama pull qwen3-vl:8b

Modèles non chargés

python3 verify_models.py