- Frontend v4 accessible sur réseau local (192.168.1.40) - Ports ouverts: 3002 (frontend), 5001 (backend), 5004 (dashboard) - Ollama GPU fonctionnel - Self-healing interactif - Dashboard confiance Co-Authored-By: Claude Opus 4.5 <noreply@anthropic.com>
221 lines
4.5 KiB
Markdown
221 lines
4.5 KiB
Markdown
# 📥 Télécharger les Modèles d'IA
|
|
|
|
## Pourquoi Télécharger les Modèles ?
|
|
|
|
RPA Vision V2 utilise plusieurs modèles d'IA :
|
|
- **OpenCLIP** : Pour la mémoire visuelle (embeddings)
|
|
- **OWL-v2** : Pour la détection d'éléments UI
|
|
- **Qwen 2.5-VL** : Pour le raisonnement visuel (via Ollama)
|
|
|
|
Ces modèles sont téléchargés **automatiquement** lors de la première utilisation, mais cela peut prendre du temps.
|
|
|
|
## 🚀 Téléchargement Automatique
|
|
|
|
### Option 1: Script de Téléchargement (Recommandé)
|
|
|
|
```bash
|
|
cd geniusia2
|
|
source venv/bin/activate
|
|
python3 download_models.py
|
|
```
|
|
|
|
Ce script télécharge tous les modèles nécessaires en une seule fois.
|
|
|
|
### Option 2: Laisser l'Application Télécharger
|
|
|
|
Les modèles seront téléchargés automatiquement au premier lancement :
|
|
- **OpenCLIP** : ~600 MB (téléchargé au démarrage)
|
|
- **OWL-v2** : ~1.5 GB (téléchargé à la première détection)
|
|
- **Qwen 2.5-VL** : ~4 GB (via Ollama, optionnel)
|
|
|
|
---
|
|
|
|
## 📦 Détails des Modèles
|
|
|
|
### 1. OpenCLIP (Obligatoire)
|
|
|
|
**Utilisation** : Mémoire visuelle et comparaison d'images
|
|
|
|
**Téléchargement automatique** : Oui, au démarrage de l'application
|
|
|
|
**Taille** : ~600 MB
|
|
|
|
**Emplacement** : Cache Hugging Face (`~/.cache/huggingface/`)
|
|
|
|
### 2. OWL-v2 (Obligatoire)
|
|
|
|
**Utilisation** : Détection d'éléments UI (boutons, champs, etc.)
|
|
|
|
**Téléchargement automatique** : Oui, à la première détection
|
|
|
|
**Taille** : ~1.5 GB
|
|
|
|
**Emplacement** : `geniusia2/models/owl_v2/`
|
|
|
|
**Téléchargement manuel** :
|
|
```python
|
|
from transformers import Owlv2Processor, Owlv2ForObjectDetection
|
|
|
|
processor = Owlv2Processor.from_pretrained(
|
|
"google/owlv2-base-patch16-ensemble"
|
|
)
|
|
model = Owlv2ForObjectDetection.from_pretrained(
|
|
"google/owlv2-base-patch16-ensemble"
|
|
)
|
|
```
|
|
|
|
### 3. Qwen3-VL (Optionnel mais Recommandé)
|
|
|
|
**Utilisation** : Raisonnement visuel avancé
|
|
|
|
**Téléchargement automatique** : Non, via Ollama
|
|
|
|
**Taille** : ~6 GB (version 8b)
|
|
|
|
**Installation** :
|
|
```bash
|
|
# 1. Installer Ollama
|
|
curl -fsSL https://ollama.com/install.sh | sh
|
|
|
|
# 2. Télécharger le modèle (version 8b recommandée)
|
|
ollama pull qwen3-vl:8b
|
|
|
|
# 3. Vérifier
|
|
ollama list
|
|
```
|
|
|
|
**Versions disponibles** :
|
|
- `qwen3-vl:8b` : 6 GB (recommandé, bon équilibre)
|
|
- `qwen3-vl:32b` : 20 GB (meilleure qualité, plus lent)
|
|
|
|
**Note** : L'application fonctionne sans Qwen, mais avec des capacités réduites.
|
|
|
|
---
|
|
|
|
## 🔍 Vérifier les Modèles Installés
|
|
|
|
### Vérifier OpenCLIP
|
|
```bash
|
|
cd geniusia2
|
|
source venv/bin/activate
|
|
python3 -c "import open_clip; print('OpenCLIP OK')"
|
|
```
|
|
|
|
### Vérifier OWL-v2
|
|
```bash
|
|
ls -lh models/owl_v2/
|
|
```
|
|
|
|
### Vérifier Ollama et Qwen
|
|
```bash
|
|
ollama list
|
|
```
|
|
|
|
---
|
|
|
|
## 💾 Espace Disque Requis
|
|
|
|
| Modèle | Taille | Obligatoire |
|
|
|--------|--------|-------------|
|
|
| OpenCLIP | ~600 MB | ✅ Oui |
|
|
| OWL-v2 | ~1.5 GB | ✅ Oui |
|
|
| Qwen 2.5-VL | ~4 GB | ⚠️ Optionnel |
|
|
| **Total** | **~6 GB** | |
|
|
|
|
**Espace recommandé** : 10 GB libres
|
|
|
|
---
|
|
|
|
## ⚡ Optimisation
|
|
|
|
### Utiliser un GPU (Optionnel)
|
|
|
|
Si tu as une carte NVIDIA avec CUDA :
|
|
|
|
1. **Vérifier CUDA** :
|
|
```bash
|
|
nvidia-smi
|
|
```
|
|
|
|
2. **Les modèles utiliseront automatiquement le GPU** si disponible
|
|
|
|
3. **Performance** :
|
|
- CPU : ~2-5 secondes par détection
|
|
- GPU : ~0.1-0.5 secondes par détection
|
|
|
|
### Mode Dégradé (Sans Qwen)
|
|
|
|
L'application fonctionne sans Ollama/Qwen :
|
|
- ✅ Détection UI : OWL-v2
|
|
- ✅ Mémoire visuelle : OpenCLIP
|
|
- ❌ Raisonnement avancé : Désactivé
|
|
|
|
---
|
|
|
|
## 🐛 Dépannage
|
|
|
|
### Erreur "Out of Memory"
|
|
|
|
**Cause** : Pas assez de RAM/VRAM
|
|
|
|
**Solution** :
|
|
1. Fermer les applications gourmandes
|
|
2. Utiliser un modèle plus petit (à venir)
|
|
3. Augmenter le swap
|
|
|
|
### Téléchargement Lent
|
|
|
|
**Cause** : Connexion internet lente
|
|
|
|
**Solution** :
|
|
1. Utiliser le script `download_models.py` en arrière-plan
|
|
2. Télécharger pendant la nuit
|
|
3. Utiliser un miroir Hugging Face (avancé)
|
|
|
|
### Ollama ne Démarre Pas
|
|
|
|
**Cause** : Service non démarré
|
|
|
|
**Solution** :
|
|
```bash
|
|
# Démarrer Ollama
|
|
ollama serve
|
|
|
|
# Dans un autre terminal
|
|
ollama pull qwen2.5-vl:7b
|
|
```
|
|
|
|
---
|
|
|
|
## 📝 Résumé
|
|
|
|
**Pour une installation complète** :
|
|
|
|
```bash
|
|
# 1. Installer Ollama
|
|
curl -fsSL https://ollama.com/install.sh | sh
|
|
|
|
# 2. Télécharger Qwen
|
|
ollama pull qwen2.5-vl:7b
|
|
|
|
# 3. Télécharger les autres modèles
|
|
cd geniusia2
|
|
source venv/bin/activate
|
|
python3 download_models.py
|
|
|
|
# 4. Lancer l'application
|
|
./run.sh
|
|
```
|
|
|
|
**Pour une installation minimale** (sans Qwen) :
|
|
|
|
```bash
|
|
# Les modèles seront téléchargés automatiquement
|
|
cd geniusia2
|
|
./run.sh
|
|
```
|
|
|
|
---
|
|
|
|
**Les modèles sont téléchargés une seule fois et réutilisés ensuite ! 🚀**
|