Files
rpa_vision_v3/docs/reference/TELECHARGER_MODELES.md
Dom a27b74cf22 v1.0 - Version stable: multi-PC, détection UI-DETR-1, 3 modes exécution
- Frontend v4 accessible sur réseau local (192.168.1.40)
- Ports ouverts: 3002 (frontend), 5001 (backend), 5004 (dashboard)
- Ollama GPU fonctionnel
- Self-healing interactif
- Dashboard confiance

Co-Authored-By: Claude Opus 4.5 <noreply@anthropic.com>
2026-01-29 11:23:51 +01:00

4.5 KiB

📥 Télécharger les Modèles d'IA

Pourquoi Télécharger les Modèles ?

RPA Vision V2 utilise plusieurs modèles d'IA :

  • OpenCLIP : Pour la mémoire visuelle (embeddings)
  • OWL-v2 : Pour la détection d'éléments UI
  • Qwen 2.5-VL : Pour le raisonnement visuel (via Ollama)

Ces modèles sont téléchargés automatiquement lors de la première utilisation, mais cela peut prendre du temps.

🚀 Téléchargement Automatique

Option 1: Script de Téléchargement (Recommandé)

cd geniusia2
source venv/bin/activate
python3 download_models.py

Ce script télécharge tous les modèles nécessaires en une seule fois.

Option 2: Laisser l'Application Télécharger

Les modèles seront téléchargés automatiquement au premier lancement :

  • OpenCLIP : ~600 MB (téléchargé au démarrage)
  • OWL-v2 : ~1.5 GB (téléchargé à la première détection)
  • Qwen 2.5-VL : ~4 GB (via Ollama, optionnel)

📦 Détails des Modèles

1. OpenCLIP (Obligatoire)

Utilisation : Mémoire visuelle et comparaison d'images

Téléchargement automatique : Oui, au démarrage de l'application

Taille : ~600 MB

Emplacement : Cache Hugging Face (~/.cache/huggingface/)

2. OWL-v2 (Obligatoire)

Utilisation : Détection d'éléments UI (boutons, champs, etc.)

Téléchargement automatique : Oui, à la première détection

Taille : ~1.5 GB

Emplacement : geniusia2/models/owl_v2/

Téléchargement manuel :

from transformers import Owlv2Processor, Owlv2ForObjectDetection

processor = Owlv2Processor.from_pretrained(
    "google/owlv2-base-patch16-ensemble"
)
model = Owlv2ForObjectDetection.from_pretrained(
    "google/owlv2-base-patch16-ensemble"
)

3. Qwen3-VL (Optionnel mais Recommandé)

Utilisation : Raisonnement visuel avancé

Téléchargement automatique : Non, via Ollama

Taille : ~6 GB (version 8b)

Installation :

# 1. Installer Ollama
curl -fsSL https://ollama.com/install.sh | sh

# 2. Télécharger le modèle (version 8b recommandée)
ollama pull qwen3-vl:8b

# 3. Vérifier
ollama list

Versions disponibles :

  • qwen3-vl:8b : 6 GB (recommandé, bon équilibre)
  • qwen3-vl:32b : 20 GB (meilleure qualité, plus lent)

Note : L'application fonctionne sans Qwen, mais avec des capacités réduites.


🔍 Vérifier les Modèles Installés

Vérifier OpenCLIP

cd geniusia2
source venv/bin/activate
python3 -c "import open_clip; print('OpenCLIP OK')"

Vérifier OWL-v2

ls -lh models/owl_v2/

Vérifier Ollama et Qwen

ollama list

💾 Espace Disque Requis

Modèle Taille Obligatoire
OpenCLIP ~600 MB Oui
OWL-v2 ~1.5 GB Oui
Qwen 2.5-VL ~4 GB ⚠️ Optionnel
Total ~6 GB

Espace recommandé : 10 GB libres


Optimisation

Utiliser un GPU (Optionnel)

Si tu as une carte NVIDIA avec CUDA :

  1. Vérifier CUDA :
nvidia-smi
  1. Les modèles utiliseront automatiquement le GPU si disponible

  2. Performance :

    • CPU : ~2-5 secondes par détection
    • GPU : ~0.1-0.5 secondes par détection

Mode Dégradé (Sans Qwen)

L'application fonctionne sans Ollama/Qwen :

  • Détection UI : OWL-v2
  • Mémoire visuelle : OpenCLIP
  • Raisonnement avancé : Désactivé

🐛 Dépannage

Erreur "Out of Memory"

Cause : Pas assez de RAM/VRAM

Solution :

  1. Fermer les applications gourmandes
  2. Utiliser un modèle plus petit (à venir)
  3. Augmenter le swap

Téléchargement Lent

Cause : Connexion internet lente

Solution :

  1. Utiliser le script download_models.py en arrière-plan
  2. Télécharger pendant la nuit
  3. Utiliser un miroir Hugging Face (avancé)

Ollama ne Démarre Pas

Cause : Service non démarré

Solution :

# Démarrer Ollama
ollama serve

# Dans un autre terminal
ollama pull qwen2.5-vl:7b

📝 Résumé

Pour une installation complète :

# 1. Installer Ollama
curl -fsSL https://ollama.com/install.sh | sh

# 2. Télécharger Qwen
ollama pull qwen2.5-vl:7b

# 3. Télécharger les autres modèles
cd geniusia2
source venv/bin/activate
python3 download_models.py

# 4. Lancer l'application
./run.sh

Pour une installation minimale (sans Qwen) :

# Les modèles seront téléchargés automatiquement
cd geniusia2
./run.sh

Les modèles sont téléchargés une seule fois et réutilisés ensuite ! 🚀