Files
Geniusia_v2/docs/reference/TELECHARGER_MODELES.md
2026-03-05 00:20:25 +01:00

221 lines
4.5 KiB
Markdown

# 📥 Télécharger les Modèles d'IA
## Pourquoi Télécharger les Modèles ?
RPA Vision V2 utilise plusieurs modèles d'IA :
- **OpenCLIP** : Pour la mémoire visuelle (embeddings)
- **OWL-v2** : Pour la détection d'éléments UI
- **Qwen 2.5-VL** : Pour le raisonnement visuel (via Ollama)
Ces modèles sont téléchargés **automatiquement** lors de la première utilisation, mais cela peut prendre du temps.
## 🚀 Téléchargement Automatique
### Option 1: Script de Téléchargement (Recommandé)
```bash
cd geniusia2
source venv/bin/activate
python3 download_models.py
```
Ce script télécharge tous les modèles nécessaires en une seule fois.
### Option 2: Laisser l'Application Télécharger
Les modèles seront téléchargés automatiquement au premier lancement :
- **OpenCLIP** : ~600 MB (téléchargé au démarrage)
- **OWL-v2** : ~1.5 GB (téléchargé à la première détection)
- **Qwen 2.5-VL** : ~4 GB (via Ollama, optionnel)
---
## 📦 Détails des Modèles
### 1. OpenCLIP (Obligatoire)
**Utilisation** : Mémoire visuelle et comparaison d'images
**Téléchargement automatique** : Oui, au démarrage de l'application
**Taille** : ~600 MB
**Emplacement** : Cache Hugging Face (`~/.cache/huggingface/`)
### 2. OWL-v2 (Obligatoire)
**Utilisation** : Détection d'éléments UI (boutons, champs, etc.)
**Téléchargement automatique** : Oui, à la première détection
**Taille** : ~1.5 GB
**Emplacement** : `geniusia2/models/owl_v2/`
**Téléchargement manuel** :
```python
from transformers import Owlv2Processor, Owlv2ForObjectDetection
processor = Owlv2Processor.from_pretrained(
"google/owlv2-base-patch16-ensemble"
)
model = Owlv2ForObjectDetection.from_pretrained(
"google/owlv2-base-patch16-ensemble"
)
```
### 3. Qwen3-VL (Optionnel mais Recommandé)
**Utilisation** : Raisonnement visuel avancé
**Téléchargement automatique** : Non, via Ollama
**Taille** : ~6 GB (version 8b)
**Installation** :
```bash
# 1. Installer Ollama
curl -fsSL https://ollama.com/install.sh | sh
# 2. Télécharger le modèle (version 8b recommandée)
ollama pull qwen3-vl:8b
# 3. Vérifier
ollama list
```
**Versions disponibles** :
- `qwen3-vl:8b` : 6 GB (recommandé, bon équilibre)
- `qwen3-vl:32b` : 20 GB (meilleure qualité, plus lent)
**Note** : L'application fonctionne sans Qwen, mais avec des capacités réduites.
---
## 🔍 Vérifier les Modèles Installés
### Vérifier OpenCLIP
```bash
cd geniusia2
source venv/bin/activate
python3 -c "import open_clip; print('OpenCLIP OK')"
```
### Vérifier OWL-v2
```bash
ls -lh models/owl_v2/
```
### Vérifier Ollama et Qwen
```bash
ollama list
```
---
## 💾 Espace Disque Requis
| Modèle | Taille | Obligatoire |
|--------|--------|-------------|
| OpenCLIP | ~600 MB | ✅ Oui |
| OWL-v2 | ~1.5 GB | ✅ Oui |
| Qwen 2.5-VL | ~4 GB | ⚠️ Optionnel |
| **Total** | **~6 GB** | |
**Espace recommandé** : 10 GB libres
---
## ⚡ Optimisation
### Utiliser un GPU (Optionnel)
Si tu as une carte NVIDIA avec CUDA :
1. **Vérifier CUDA** :
```bash
nvidia-smi
```
2. **Les modèles utiliseront automatiquement le GPU** si disponible
3. **Performance** :
- CPU : ~2-5 secondes par détection
- GPU : ~0.1-0.5 secondes par détection
### Mode Dégradé (Sans Qwen)
L'application fonctionne sans Ollama/Qwen :
- ✅ Détection UI : OWL-v2
- ✅ Mémoire visuelle : OpenCLIP
- ❌ Raisonnement avancé : Désactivé
---
## 🐛 Dépannage
### Erreur "Out of Memory"
**Cause** : Pas assez de RAM/VRAM
**Solution** :
1. Fermer les applications gourmandes
2. Utiliser un modèle plus petit (à venir)
3. Augmenter le swap
### Téléchargement Lent
**Cause** : Connexion internet lente
**Solution** :
1. Utiliser le script `download_models.py` en arrière-plan
2. Télécharger pendant la nuit
3. Utiliser un miroir Hugging Face (avancé)
### Ollama ne Démarre Pas
**Cause** : Service non démarré
**Solution** :
```bash
# Démarrer Ollama
ollama serve
# Dans un autre terminal
ollama pull qwen2.5-vl:7b
```
---
## 📝 Résumé
**Pour une installation complète** :
```bash
# 1. Installer Ollama
curl -fsSL https://ollama.com/install.sh | sh
# 2. Télécharger Qwen
ollama pull qwen2.5-vl:7b
# 3. Télécharger les autres modèles
cd geniusia2
source venv/bin/activate
python3 download_models.py
# 4. Lancer l'application
./run.sh
```
**Pour une installation minimale** (sans Qwen) :
```bash
# Les modèles seront téléchargés automatiquement
cd geniusia2
./run.sh
```
---
**Les modèles sont téléchargés une seule fois et réutilisés ensuite ! 🚀**