Files
rpa_vision_v3/docs/reference/QWEN3_VL_CONFIGURATION.md
Dom a27b74cf22 v1.0 - Version stable: multi-PC, détection UI-DETR-1, 3 modes exécution
- Frontend v4 accessible sur réseau local (192.168.1.40)
- Ports ouverts: 3002 (frontend), 5001 (backend), 5004 (dashboard)
- Ollama GPU fonctionnel
- Self-healing interactif
- Dashboard confiance

Co-Authored-By: Claude Opus 4.5 <noreply@anthropic.com>
2026-01-29 11:23:51 +01:00

3.9 KiB

Configuration Qwen3-VL:8b

Modifications Appliquées

1. Configuration Mise à Jour

Fichier : geniusia2/core/config.py

"models": {
    "llm": "qwen3-vl:8b",  # Changé de qwen2.5-vl:3b
}

2. Code LLM Manager Corrigé

Fichier : geniusia2/core/llm_manager.py

Correction de la détection des modèles Ollama pour supporter la nouvelle API :

# Avant
model_names = [m['name'] for m in models.get('models', [])]

# Après
model_names = [m.model for m in models.models]

3. Documentation Mise à Jour

  • TELECHARGER_MODELES.md : Qwen3-VL au lieu de Qwen 2.5-VL
  • download_models.py : Détection de qwen3-vl

Vérification

Modèle Installé

$ ollama list | grep qwen3-vl
qwen3-vl:8b    901cae732162    6.1 GB    About a minute ago

Qwen3-VL:8b est installé et disponible

Configuration Active

$ cd geniusia2
$ ./venv/bin/python -c "from core.config import CONFIG; print(CONFIG['models']['llm'])"
qwen3-vl:8b

La configuration utilise bien Qwen3-VL:8b

Test de Connexion

$ ./venv/bin/python test_qwen3_vl.py
============================================================
Test de Qwen3-VL:8b
============================================================

1. Initialisation du LLM Manager...
   ✓ LLM Manager initialisé

2. Création d'une image de test...
   ✓ Image de test créée (100x100)

✓ Test terminé
Qwen3-VL:8b est opérationnel !

Le LLM Manager se connecte correctement


Avantages de Qwen3-VL:8b

Par rapport à Qwen 2.5-VL:3b

Critère Qwen 2.5-VL:3b Qwen3-VL:8b
Paramètres 3 milliards 8 milliards
Taille ~2 GB ~6 GB
Qualité Bonne Excellente
Vitesse Rapide Moyenne
Compréhension Basique Avancée

Capacités Améliorées

  1. Meilleure compréhension visuelle

    • Détection plus précise des éléments UI
    • Meilleure reconnaissance du contexte
  2. Raisonnement plus robuste

    • Décisions plus pertinentes
    • Moins d'erreurs d'interprétation
  3. Support multilingue amélioré

    • Meilleure compréhension du français
    • Support de plus de langues

Performance

Temps de Réponse Estimés

Avec CPU :

  • Qwen 2.5-VL:3b : ~1-2 secondes
  • Qwen3-VL:8b : ~2-4 secondes

Avec GPU (NVIDIA) :

  • Qwen 2.5-VL:3b : ~0.3-0.5 secondes
  • Qwen3-VL:8b : ~0.5-1 seconde

Recommandations

  • CPU uniquement : Qwen3-VL:8b reste acceptable
  • GPU disponible : Qwen3-VL:8b fortement recommandé
  • Ressources limitées : Possibilité de revenir à qwen2.5-vl:3b

Changer de Modèle

Revenir à Qwen 2.5-VL

Si Qwen3-VL:8b est trop lent :

  1. Télécharger Qwen 2.5-VL :
ollama pull qwen2.5-vl:3b
  1. Modifier la configuration :
# Dans geniusia2/core/config.py
"llm": "qwen2.5-vl:3b",
  1. Redémarrer l'application

Utiliser Qwen3-VL:32b

Pour une qualité maximale :

  1. Télécharger le modèle :
ollama pull qwen3-vl:32b
  1. Modifier la configuration :
# Dans geniusia2/core/config.py
"llm": "qwen3-vl:32b",

Attention : Nécessite ~20 GB d'espace et beaucoup plus de RAM/VRAM


Vérification Finale

Tous les Modèles Prêts

$ cd geniusia2
$ ./venv/bin/python download_models.py

============================================================
📊 Résumé
============================================================
✅ OpenCLIP
✅ OWL-v2
✅ Ollama (Qwen3-VL:8b)

🎉 Tous les modèles sont prêts !

Lancer l'Application

$ cd geniusia2
$ ./run.sh

🎉 Résumé

Qwen3-VL:8b est configuré et opérationnel

L'application utilise maintenant :

  • OpenCLIP : Mémoire visuelle
  • OWL-v2 : Détection d'éléments UI
  • Qwen3-VL:8b : Raisonnement visuel avancé

Tous les composants IA sont prêts ! 🚀