Files
rpa_vision_v3/docs/guides/INSTALLATION_GUIDE.md
Dom a27b74cf22 v1.0 - Version stable: multi-PC, détection UI-DETR-1, 3 modes exécution
- Frontend v4 accessible sur réseau local (192.168.1.40)
- Ports ouverts: 3002 (frontend), 5001 (backend), 5004 (dashboard)
- Ollama GPU fonctionnel
- Self-healing interactif
- Dashboard confiance

Co-Authored-By: Claude Opus 4.5 <noreply@anthropic.com>
2026-01-29 11:23:51 +01:00

3.2 KiB

Guide d'Installation - RPA Vision V3

🚀 Installation Rapide

Méthode 1 : Script d'installation automatique (Recommandé)

# 1. Installer les dépendances
./install_deps.sh

# 2. Lancer l'application
./run.sh

🔐 Sécurité (Fiche #23)

Depuis la Fiche #23, l'API et le dashboard peuvent exiger un token.

  • En local, ./run.sh crée automatiquement un fichier .env.local si absent, avec des tokens.
  • En production systemd, utiliser sudo ./server/install_prod_stack.sh (il génère aussi les tokens/secret).

➡️ Voir SECURITY_QUICKSTART.md pour les commandes prêtes à copier.

Méthode 2 : Installation manuelle

# 1. Créer l'environnement virtuel
python3 -m venv venv_v3

# 2. Activer l'environnement
source venv_v3/bin/activate

# 3. Installer les dépendances
pip install -r requirements.txt
pip install mss pyautogui pygetwindow opencv-python
pip install pytest pytest-cov Flask

# 4. Lancer l'application
python run_gui.py

📋 Prérequis

  • Python : 3.8 ou supérieur (3.12 recommandé)
  • RAM : 8GB minimum, 16GB recommandé
  • Système : Linux, macOS, ou Windows
  • Ollama (optionnel) : Pour la détection UI avec VLM

🔧 Installation d'Ollama (Optionnel)

Pour utiliser la détection UI sémantique avec VLM :

# Linux
curl -fsSL https://ollama.ai/install.sh | sh

# macOS
brew install ollama

# Démarrer Ollama
ollama serve

# Télécharger le modèle
ollama pull qwen3-vl:8b

Vérification de l'installation

# Activer l'environnement
source venv_v3/bin/activate

# Vérifier les imports
python -c "from core.detection import UIDetector; print('✓ UIDetector OK')"
python -c "import faiss; print('✓ FAISS OK')"
python -c "import torch; print('✓ PyTorch OK')"

# Vérifier le système de capture
python verify_capture_system.py

🐛 Résolution de problèmes

Erreur : "externally-managed-environment"

Vous devez utiliser un environnement virtuel :

python3 -m venv venv_v3
source venv_v3/bin/activate

Erreur : "No module named 'faiss'"

source venv_v3/bin/activate
pip install faiss-cpu

Erreur : "No module named 'torch'"

source venv_v3/bin/activate
pip install torch torchvision --index-url https://download.pytorch.org/whl/cpu

Capture d'écran ne fonctionne pas

source venv_v3/bin/activate
pip install mss pyautogui pygetwindow opencv-python

📚 Documentation

  • Quick Start : QUICK_START.md
  • Architecture : docs/reference/ARCHITECTURE_VISION_COMPLETE.md
  • Guide de test : TESTING_GUIDE.md
  • Guide d'entraînement : TRAINING_GUIDE.md

🎯 Prochaines étapes

Une fois l'installation terminée :

  1. Lire le QUICK_START.md
  2. Tester la détection UI : ./test_quick.sh
  3. Explorer les exemples : examples/
  4. Consulter la documentation : docs/

💡 Conseils

  • Utilisez toujours l'environnement virtuel venv_v3
  • Pour GPU : Installez PyTorch avec CUDA
  • Pour production : Configurez Ollama en service
  • Pour développement : Installez les outils de test

📞 Support

En cas de problème :

  1. Vérifier les logs dans logs/
  2. Consulter STATUS_24NOV.md pour l'état du projet
  3. Lire la documentation dans docs/