Files
rpa_vision_v3/docs/reference/QWEN3_VL_CONFIGURATION.md
Dom a27b74cf22 v1.0 - Version stable: multi-PC, détection UI-DETR-1, 3 modes exécution
- Frontend v4 accessible sur réseau local (192.168.1.40)
- Ports ouverts: 3002 (frontend), 5001 (backend), 5004 (dashboard)
- Ollama GPU fonctionnel
- Self-healing interactif
- Dashboard confiance

Co-Authored-By: Claude Opus 4.5 <noreply@anthropic.com>
2026-01-29 11:23:51 +01:00

202 lines
3.9 KiB
Markdown

# ✅ Configuration Qwen3-VL:8b
## Modifications Appliquées
### 1. Configuration Mise à Jour
**Fichier** : `geniusia2/core/config.py`
```python
"models": {
"llm": "qwen3-vl:8b", # Changé de qwen2.5-vl:3b
}
```
### 2. Code LLM Manager Corrigé
**Fichier** : `geniusia2/core/llm_manager.py`
Correction de la détection des modèles Ollama pour supporter la nouvelle API :
```python
# Avant
model_names = [m['name'] for m in models.get('models', [])]
# Après
model_names = [m.model for m in models.models]
```
### 3. Documentation Mise à Jour
- `TELECHARGER_MODELES.md` : Qwen3-VL au lieu de Qwen 2.5-VL
- `download_models.py` : Détection de qwen3-vl
---
## Vérification
### Modèle Installé
```bash
$ ollama list | grep qwen3-vl
qwen3-vl:8b 901cae732162 6.1 GB About a minute ago
```
**Qwen3-VL:8b est installé et disponible**
### Configuration Active
```bash
$ cd geniusia2
$ ./venv/bin/python -c "from core.config import CONFIG; print(CONFIG['models']['llm'])"
qwen3-vl:8b
```
**La configuration utilise bien Qwen3-VL:8b**
### Test de Connexion
```bash
$ ./venv/bin/python test_qwen3_vl.py
============================================================
Test de Qwen3-VL:8b
============================================================
1. Initialisation du LLM Manager...
✓ LLM Manager initialisé
2. Création d'une image de test...
✓ Image de test créée (100x100)
✓ Test terminé
Qwen3-VL:8b est opérationnel !
```
**Le LLM Manager se connecte correctement**
---
## Avantages de Qwen3-VL:8b
### Par rapport à Qwen 2.5-VL:3b
| Critère | Qwen 2.5-VL:3b | Qwen3-VL:8b |
|---------|----------------|-------------|
| **Paramètres** | 3 milliards | 8 milliards |
| **Taille** | ~2 GB | ~6 GB |
| **Qualité** | Bonne | Excellente |
| **Vitesse** | Rapide | Moyenne |
| **Compréhension** | Basique | Avancée |
### Capacités Améliorées
1. **Meilleure compréhension visuelle**
- Détection plus précise des éléments UI
- Meilleure reconnaissance du contexte
2. **Raisonnement plus robuste**
- Décisions plus pertinentes
- Moins d'erreurs d'interprétation
3. **Support multilingue amélioré**
- Meilleure compréhension du français
- Support de plus de langues
---
## Performance
### Temps de Réponse Estimés
**Avec CPU** :
- Qwen 2.5-VL:3b : ~1-2 secondes
- Qwen3-VL:8b : ~2-4 secondes
**Avec GPU (NVIDIA)** :
- Qwen 2.5-VL:3b : ~0.3-0.5 secondes
- Qwen3-VL:8b : ~0.5-1 seconde
### Recommandations
- **CPU uniquement** : Qwen3-VL:8b reste acceptable
- **GPU disponible** : Qwen3-VL:8b fortement recommandé
- **Ressources limitées** : Possibilité de revenir à qwen2.5-vl:3b
---
## Changer de Modèle
### Revenir à Qwen 2.5-VL
Si Qwen3-VL:8b est trop lent :
1. **Télécharger Qwen 2.5-VL** :
```bash
ollama pull qwen2.5-vl:3b
```
2. **Modifier la configuration** :
```python
# Dans geniusia2/core/config.py
"llm": "qwen2.5-vl:3b",
```
3. **Redémarrer l'application**
### Utiliser Qwen3-VL:32b
Pour une qualité maximale :
1. **Télécharger le modèle** :
```bash
ollama pull qwen3-vl:32b
```
2. **Modifier la configuration** :
```python
# Dans geniusia2/core/config.py
"llm": "qwen3-vl:32b",
```
**Attention** : Nécessite ~20 GB d'espace et beaucoup plus de RAM/VRAM
---
## Vérification Finale
### Tous les Modèles Prêts
```bash
$ cd geniusia2
$ ./venv/bin/python download_models.py
============================================================
📊 Résumé
============================================================
✅ OpenCLIP
✅ OWL-v2
✅ Ollama (Qwen3-VL:8b)
🎉 Tous les modèles sont prêts !
```
### Lancer l'Application
```bash
$ cd geniusia2
$ ./run.sh
```
---
## 🎉 Résumé
**Qwen3-VL:8b est configuré et opérationnel**
L'application utilise maintenant :
- **OpenCLIP** : Mémoire visuelle
- **OWL-v2** : Détection d'éléments UI
- **Qwen3-VL:8b** : Raisonnement visuel avancé
**Tous les composants IA sont prêts ! 🚀**