- Frontend v4 accessible sur réseau local (192.168.1.40) - Ports ouverts: 3002 (frontend), 5001 (backend), 5004 (dashboard) - Ollama GPU fonctionnel - Self-healing interactif - Dashboard confiance Co-Authored-By: Claude Opus 4.5 <noreply@anthropic.com>
197 lines
3.0 KiB
Markdown
197 lines
3.0 KiB
Markdown
# 🚀 Commandes Rapides - RPA Vision V3
|
|
|
|
## Installation
|
|
|
|
```bash
|
|
# Installation complète
|
|
./install_deps.sh
|
|
|
|
# Vérifier l'installation
|
|
./test_installation.sh
|
|
```
|
|
|
|
## Lancement
|
|
|
|
```bash
|
|
# Lancer l'application GUI
|
|
./run.sh
|
|
|
|
# Lancer avec le dashboard web
|
|
./run.sh --dashboard
|
|
|
|
# Lancer manuellement
|
|
source venv_v3/bin/activate
|
|
python run_gui.py
|
|
```
|
|
|
|
## Tests
|
|
|
|
```bash
|
|
# Activer l'environnement
|
|
source venv_v3/bin/activate
|
|
|
|
# Vérifier la capture d'écran
|
|
python verify_capture_system.py
|
|
|
|
# Test rapide de détection
|
|
./test_quick.sh
|
|
|
|
# Tests unitaires
|
|
pytest tests/unit/
|
|
|
|
# Tests d'intégration
|
|
pytest tests/integration/
|
|
|
|
# Tous les tests
|
|
pytest tests/
|
|
```
|
|
|
|
## Ollama (VLM)
|
|
|
|
```bash
|
|
# Démarrer Ollama
|
|
ollama serve
|
|
|
|
# Télécharger le modèle
|
|
ollama pull qwen3-vl:8b
|
|
|
|
# Lister les modèles
|
|
ollama list
|
|
|
|
# Vérifier le statut
|
|
systemctl status ollama # Linux
|
|
```
|
|
|
|
## Dashboard Web
|
|
|
|
```bash
|
|
# Lancer le dashboard
|
|
./run.sh --dashboard
|
|
|
|
# Accéder au dashboard
|
|
# http://localhost:5001
|
|
|
|
# Voir les logs
|
|
tail -f logs/dashboard.log
|
|
```
|
|
|
|
## Développement
|
|
|
|
```bash
|
|
# Activer l'environnement
|
|
source venv_v3/bin/activate
|
|
|
|
# Installer une nouvelle dépendance
|
|
pip install <package>
|
|
|
|
# Mettre à jour requirements.txt
|
|
pip freeze > requirements.txt
|
|
|
|
# Lancer un exemple
|
|
python examples/test_complete_real.py
|
|
|
|
# Diagnostic système
|
|
python examples/diagnostic_vlm.py
|
|
```
|
|
|
|
## Maintenance
|
|
|
|
```bash
|
|
# Réinstaller les dépendances
|
|
./install_deps.sh
|
|
|
|
# Nettoyer le cache
|
|
rm -rf __pycache__ */__pycache__ */*/__pycache__
|
|
rm -rf .pytest_cache
|
|
rm -rf htmlcov .coverage
|
|
|
|
# Recréer l'environnement virtuel
|
|
rm -rf venv_v3
|
|
python3 -m venv venv_v3
|
|
./install_deps.sh
|
|
```
|
|
|
|
## Logs et Debugging
|
|
|
|
```bash
|
|
# Voir les logs
|
|
ls -la logs/
|
|
|
|
# Logs du dashboard
|
|
tail -f logs/dashboard.log
|
|
|
|
# Logs d'erreurs
|
|
grep -r "ERROR" logs/
|
|
|
|
# Vérifier les imports
|
|
python -c "from core.detection import UIDetector; print('OK')"
|
|
```
|
|
|
|
## Informations Système
|
|
|
|
```bash
|
|
# Version Python
|
|
python3 --version
|
|
|
|
# Modules installés
|
|
source venv_v3/bin/activate
|
|
pip list
|
|
|
|
# Espace disque
|
|
df -h
|
|
|
|
# Mémoire
|
|
free -h
|
|
|
|
# GPU (si NVIDIA)
|
|
nvidia-smi
|
|
```
|
|
|
|
## Raccourcis Utiles
|
|
|
|
```bash
|
|
# Alias à ajouter dans ~/.bashrc ou ~/.zshrc
|
|
alias rpa-activate='source ~/ai/rpa_vision_v3/venv_v3/bin/activate'
|
|
alias rpa-run='cd ~/ai/rpa_vision_v3 && ./run.sh'
|
|
alias rpa-test='cd ~/ai/rpa_vision_v3 && ./test_installation.sh'
|
|
alias rpa-dashboard='cd ~/ai/rpa_vision_v3 && ./run.sh --dashboard'
|
|
```
|
|
|
|
## Aide
|
|
|
|
```bash
|
|
# Documentation
|
|
cat README.md
|
|
cat QUICK_START.md
|
|
cat INSTALLATION_GUIDE.md
|
|
|
|
# Statut du projet
|
|
cat STATUS_24NOV.md
|
|
|
|
# Guide de migration
|
|
cat MIGRATION_COMPLETE.md
|
|
```
|
|
|
|
## Résolution de Problèmes
|
|
|
|
```bash
|
|
# Problème d'imports
|
|
source venv_v3/bin/activate
|
|
python -c "from core.models import ScreenState; print('OK')"
|
|
|
|
# Problème de capture d'écran
|
|
python verify_capture_system.py
|
|
|
|
# Problème Ollama
|
|
ollama list
|
|
ollama serve
|
|
|
|
# Réinstaller tout
|
|
rm -rf venv_v3 .deps_installed
|
|
./install_deps.sh
|
|
```
|
|
|
|
---
|
|
|
|
**Astuce** : Gardez ce fichier ouvert dans un terminal pour référence rapide !
|