v1.0 - Version stable: multi-PC, détection UI-DETR-1, 3 modes exécution
- Frontend v4 accessible sur réseau local (192.168.1.40) - Ports ouverts: 3002 (frontend), 5001 (backend), 5004 (dashboard) - Ollama GPU fonctionnel - Self-healing interactif - Dashboard confiance Co-Authored-By: Claude Opus 4.5 <noreply@anthropic.com>
This commit is contained in:
143
docs/guides/INSTALLATION_GUIDE.md
Normal file
143
docs/guides/INSTALLATION_GUIDE.md
Normal file
@@ -0,0 +1,143 @@
|
||||
# Guide d'Installation - RPA Vision V3
|
||||
|
||||
## 🚀 Installation Rapide
|
||||
|
||||
### Méthode 1 : Script d'installation automatique (Recommandé)
|
||||
|
||||
```bash
|
||||
# 1. Installer les dépendances
|
||||
./install_deps.sh
|
||||
|
||||
# 2. Lancer l'application
|
||||
./run.sh
|
||||
```
|
||||
|
||||
## 🔐 Sécurité (Fiche #23)
|
||||
|
||||
Depuis la Fiche #23, l'API et le dashboard peuvent exiger un token.
|
||||
|
||||
- En **local**, `./run.sh` crée automatiquement un fichier `.env.local` si absent, avec des tokens.
|
||||
- En **production systemd**, utiliser `sudo ./server/install_prod_stack.sh` (il génère aussi les tokens/secret).
|
||||
|
||||
➡️ Voir `SECURITY_QUICKSTART.md` pour les commandes prêtes à copier.
|
||||
|
||||
### Méthode 2 : Installation manuelle
|
||||
|
||||
```bash
|
||||
# 1. Créer l'environnement virtuel
|
||||
python3 -m venv venv_v3
|
||||
|
||||
# 2. Activer l'environnement
|
||||
source venv_v3/bin/activate
|
||||
|
||||
# 3. Installer les dépendances
|
||||
pip install -r requirements.txt
|
||||
pip install mss pyautogui pygetwindow opencv-python
|
||||
pip install pytest pytest-cov Flask
|
||||
|
||||
# 4. Lancer l'application
|
||||
python run_gui.py
|
||||
```
|
||||
|
||||
## 📋 Prérequis
|
||||
|
||||
- **Python** : 3.8 ou supérieur (3.12 recommandé)
|
||||
- **RAM** : 8GB minimum, 16GB recommandé
|
||||
- **Système** : Linux, macOS, ou Windows
|
||||
- **Ollama** (optionnel) : Pour la détection UI avec VLM
|
||||
|
||||
## 🔧 Installation d'Ollama (Optionnel)
|
||||
|
||||
Pour utiliser la détection UI sémantique avec VLM :
|
||||
|
||||
```bash
|
||||
# Linux
|
||||
curl -fsSL https://ollama.ai/install.sh | sh
|
||||
|
||||
# macOS
|
||||
brew install ollama
|
||||
|
||||
# Démarrer Ollama
|
||||
ollama serve
|
||||
|
||||
# Télécharger le modèle
|
||||
ollama pull qwen3-vl:8b
|
||||
```
|
||||
|
||||
## ✅ Vérification de l'installation
|
||||
|
||||
```bash
|
||||
# Activer l'environnement
|
||||
source venv_v3/bin/activate
|
||||
|
||||
# Vérifier les imports
|
||||
python -c "from core.detection import UIDetector; print('✓ UIDetector OK')"
|
||||
python -c "import faiss; print('✓ FAISS OK')"
|
||||
python -c "import torch; print('✓ PyTorch OK')"
|
||||
|
||||
# Vérifier le système de capture
|
||||
python verify_capture_system.py
|
||||
```
|
||||
|
||||
## 🐛 Résolution de problèmes
|
||||
|
||||
### Erreur : "externally-managed-environment"
|
||||
|
||||
Vous devez utiliser un environnement virtuel :
|
||||
|
||||
```bash
|
||||
python3 -m venv venv_v3
|
||||
source venv_v3/bin/activate
|
||||
```
|
||||
|
||||
### Erreur : "No module named 'faiss'"
|
||||
|
||||
```bash
|
||||
source venv_v3/bin/activate
|
||||
pip install faiss-cpu
|
||||
```
|
||||
|
||||
### Erreur : "No module named 'torch'"
|
||||
|
||||
```bash
|
||||
source venv_v3/bin/activate
|
||||
pip install torch torchvision --index-url https://download.pytorch.org/whl/cpu
|
||||
```
|
||||
|
||||
### Capture d'écran ne fonctionne pas
|
||||
|
||||
```bash
|
||||
source venv_v3/bin/activate
|
||||
pip install mss pyautogui pygetwindow opencv-python
|
||||
```
|
||||
|
||||
## 📚 Documentation
|
||||
|
||||
- **Quick Start** : `QUICK_START.md`
|
||||
- **Architecture** : `docs/reference/ARCHITECTURE_VISION_COMPLETE.md`
|
||||
- **Guide de test** : `TESTING_GUIDE.md`
|
||||
- **Guide d'entraînement** : `TRAINING_GUIDE.md`
|
||||
|
||||
## 🎯 Prochaines étapes
|
||||
|
||||
Une fois l'installation terminée :
|
||||
|
||||
1. Lire le `QUICK_START.md`
|
||||
2. Tester la détection UI : `./test_quick.sh`
|
||||
3. Explorer les exemples : `examples/`
|
||||
4. Consulter la documentation : `docs/`
|
||||
|
||||
## 💡 Conseils
|
||||
|
||||
- Utilisez toujours l'environnement virtuel `venv_v3`
|
||||
- Pour GPU : Installez PyTorch avec CUDA
|
||||
- Pour production : Configurez Ollama en service
|
||||
- Pour développement : Installez les outils de test
|
||||
|
||||
## 📞 Support
|
||||
|
||||
En cas de problème :
|
||||
|
||||
1. Vérifier les logs dans `logs/`
|
||||
2. Consulter `STATUS_24NOV.md` pour l'état du projet
|
||||
3. Lire la documentation dans `docs/`
|
||||
Reference in New Issue
Block a user