- Frontend v4 accessible sur réseau local (192.168.1.40) - Ports ouverts: 3002 (frontend), 5001 (backend), 5004 (dashboard) - Ollama GPU fonctionnel - Self-healing interactif - Dashboard confiance Co-Authored-By: Claude Opus 4.5 <noreply@anthropic.com>
1.4 KiB
1.4 KiB
Quick Start - RPA Vision V3 (RÉEL)
Installation et Setup
cd rpa_vision_v3
./run.sh
Le script run.sh va :
- ✅ Créer le venv
- ✅ Installer les dépendances
- ✅ Vérifier FAISS
- ✅ Vérifier Ollama et Qwen3-VL
- ✅ Vérifier que les modèles sont intégrés
Tests Rapides
1. Test CLIP (Embeddings)
source venv/bin/activate
python3 examples/test_clip_simple.py
Résultat attendu:
✓ Embedding généré: shape=(512,), norme=1.0000
2. Test Pipeline Complet (CLIP + FAISS)
python3 examples/test_complete_pipeline.py
Résultat attendu:
✅ PIPELINE COMPLET FONCTIONNEL
3. Test OWL-v2 (Détection UI)
python3 examples/test_owl_simple.py
Architecture Vérifiée
✅ OpenCLIP : Intégré dans StateEmbeddingBuilder
✅ FAISS : Indexation et recherche fonctionnelles
✅ OWL-v2 : Intégré dans UIDetector
✅ Qwen3-VL : Disponible via Ollama
Prochaines Étapes
- Tester la détection UI sur une vraie capture d'écran
- Créer un workflow complet de bout en bout
- Persister l'index FAISS sur disque
- Intégrer avec le système de capture
Troubleshooting
FAISS non trouvé
source venv/bin/activate
pip install faiss-cpu
Ollama non installé
curl -fsSL https://ollama.com/install.sh | sh
ollama pull qwen3-vl:8b
Modèles non chargés
python3 verify_models.py