v1.0 - Version stable: multi-PC, détection UI-DETR-1, 3 modes exécution

- Frontend v4 accessible sur réseau local (192.168.1.40)
- Ports ouverts: 3002 (frontend), 5001 (backend), 5004 (dashboard)
- Ollama GPU fonctionnel
- Self-healing interactif
- Dashboard confiance

Co-Authored-By: Claude Opus 4.5 <noreply@anthropic.com>
This commit is contained in:
Dom
2026-01-29 11:23:51 +01:00
parent 21bfa3b337
commit a27b74cf22
1595 changed files with 412691 additions and 400 deletions

View File

@@ -0,0 +1,143 @@
# Guide d'Installation - RPA Vision V3
## 🚀 Installation Rapide
### Méthode 1 : Script d'installation automatique (Recommandé)
```bash
# 1. Installer les dépendances
./install_deps.sh
# 2. Lancer l'application
./run.sh
```
## 🔐 Sécurité (Fiche #23)
Depuis la Fiche #23, l'API et le dashboard peuvent exiger un token.
- En **local**, `./run.sh` crée automatiquement un fichier `.env.local` si absent, avec des tokens.
- En **production systemd**, utiliser `sudo ./server/install_prod_stack.sh` (il génère aussi les tokens/secret).
➡️ Voir `SECURITY_QUICKSTART.md` pour les commandes prêtes à copier.
### Méthode 2 : Installation manuelle
```bash
# 1. Créer l'environnement virtuel
python3 -m venv venv_v3
# 2. Activer l'environnement
source venv_v3/bin/activate
# 3. Installer les dépendances
pip install -r requirements.txt
pip install mss pyautogui pygetwindow opencv-python
pip install pytest pytest-cov Flask
# 4. Lancer l'application
python run_gui.py
```
## 📋 Prérequis
- **Python** : 3.8 ou supérieur (3.12 recommandé)
- **RAM** : 8GB minimum, 16GB recommandé
- **Système** : Linux, macOS, ou Windows
- **Ollama** (optionnel) : Pour la détection UI avec VLM
## 🔧 Installation d'Ollama (Optionnel)
Pour utiliser la détection UI sémantique avec VLM :
```bash
# Linux
curl -fsSL https://ollama.ai/install.sh | sh
# macOS
brew install ollama
# Démarrer Ollama
ollama serve
# Télécharger le modèle
ollama pull qwen3-vl:8b
```
## ✅ Vérification de l'installation
```bash
# Activer l'environnement
source venv_v3/bin/activate
# Vérifier les imports
python -c "from core.detection import UIDetector; print('✓ UIDetector OK')"
python -c "import faiss; print('✓ FAISS OK')"
python -c "import torch; print('✓ PyTorch OK')"
# Vérifier le système de capture
python verify_capture_system.py
```
## 🐛 Résolution de problèmes
### Erreur : "externally-managed-environment"
Vous devez utiliser un environnement virtuel :
```bash
python3 -m venv venv_v3
source venv_v3/bin/activate
```
### Erreur : "No module named 'faiss'"
```bash
source venv_v3/bin/activate
pip install faiss-cpu
```
### Erreur : "No module named 'torch'"
```bash
source venv_v3/bin/activate
pip install torch torchvision --index-url https://download.pytorch.org/whl/cpu
```
### Capture d'écran ne fonctionne pas
```bash
source venv_v3/bin/activate
pip install mss pyautogui pygetwindow opencv-python
```
## 📚 Documentation
- **Quick Start** : `QUICK_START.md`
- **Architecture** : `docs/reference/ARCHITECTURE_VISION_COMPLETE.md`
- **Guide de test** : `TESTING_GUIDE.md`
- **Guide d'entraînement** : `TRAINING_GUIDE.md`
## 🎯 Prochaines étapes
Une fois l'installation terminée :
1. Lire le `QUICK_START.md`
2. Tester la détection UI : `./test_quick.sh`
3. Explorer les exemples : `examples/`
4. Consulter la documentation : `docs/`
## 💡 Conseils
- Utilisez toujours l'environnement virtuel `venv_v3`
- Pour GPU : Installez PyTorch avec CUDA
- Pour production : Configurez Ollama en service
- Pour développement : Installez les outils de test
## 📞 Support
En cas de problème :
1. Vérifier les logs dans `logs/`
2. Consulter `STATUS_24NOV.md` pour l'état du projet
3. Lire la documentation dans `docs/`