# ✅ Configuration Qwen3-VL:8b ## Modifications Appliquées ### 1. Configuration Mise à Jour **Fichier** : `geniusia2/core/config.py` ```python "models": { "llm": "qwen3-vl:8b", # Changé de qwen2.5-vl:3b } ``` ### 2. Code LLM Manager Corrigé **Fichier** : `geniusia2/core/llm_manager.py` Correction de la détection des modèles Ollama pour supporter la nouvelle API : ```python # Avant model_names = [m['name'] for m in models.get('models', [])] # Après model_names = [m.model for m in models.models] ``` ### 3. Documentation Mise à Jour - `TELECHARGER_MODELES.md` : Qwen3-VL au lieu de Qwen 2.5-VL - `download_models.py` : Détection de qwen3-vl --- ## Vérification ### Modèle Installé ```bash $ ollama list | grep qwen3-vl qwen3-vl:8b 901cae732162 6.1 GB About a minute ago ``` ✅ **Qwen3-VL:8b est installé et disponible** ### Configuration Active ```bash $ cd geniusia2 $ ./venv/bin/python -c "from core.config import CONFIG; print(CONFIG['models']['llm'])" qwen3-vl:8b ``` ✅ **La configuration utilise bien Qwen3-VL:8b** ### Test de Connexion ```bash $ ./venv/bin/python test_qwen3_vl.py ============================================================ Test de Qwen3-VL:8b ============================================================ 1. Initialisation du LLM Manager... ✓ LLM Manager initialisé 2. Création d'une image de test... ✓ Image de test créée (100x100) ✓ Test terminé Qwen3-VL:8b est opérationnel ! ``` ✅ **Le LLM Manager se connecte correctement** --- ## Avantages de Qwen3-VL:8b ### Par rapport à Qwen 2.5-VL:3b | Critère | Qwen 2.5-VL:3b | Qwen3-VL:8b | |---------|----------------|-------------| | **Paramètres** | 3 milliards | 8 milliards | | **Taille** | ~2 GB | ~6 GB | | **Qualité** | Bonne | Excellente | | **Vitesse** | Rapide | Moyenne | | **Compréhension** | Basique | Avancée | ### Capacités Améliorées 1. **Meilleure compréhension visuelle** - Détection plus précise des éléments UI - Meilleure reconnaissance du contexte 2. **Raisonnement plus robuste** - Décisions plus pertinentes - Moins d'erreurs d'interprétation 3. **Support multilingue amélioré** - Meilleure compréhension du français - Support de plus de langues --- ## Performance ### Temps de Réponse Estimés **Avec CPU** : - Qwen 2.5-VL:3b : ~1-2 secondes - Qwen3-VL:8b : ~2-4 secondes **Avec GPU (NVIDIA)** : - Qwen 2.5-VL:3b : ~0.3-0.5 secondes - Qwen3-VL:8b : ~0.5-1 seconde ### Recommandations - **CPU uniquement** : Qwen3-VL:8b reste acceptable - **GPU disponible** : Qwen3-VL:8b fortement recommandé - **Ressources limitées** : Possibilité de revenir à qwen2.5-vl:3b --- ## Changer de Modèle ### Revenir à Qwen 2.5-VL Si Qwen3-VL:8b est trop lent : 1. **Télécharger Qwen 2.5-VL** : ```bash ollama pull qwen2.5-vl:3b ``` 2. **Modifier la configuration** : ```python # Dans geniusia2/core/config.py "llm": "qwen2.5-vl:3b", ``` 3. **Redémarrer l'application** ### Utiliser Qwen3-VL:32b Pour une qualité maximale : 1. **Télécharger le modèle** : ```bash ollama pull qwen3-vl:32b ``` 2. **Modifier la configuration** : ```python # Dans geniusia2/core/config.py "llm": "qwen3-vl:32b", ``` **Attention** : Nécessite ~20 GB d'espace et beaucoup plus de RAM/VRAM --- ## Vérification Finale ### Tous les Modèles Prêts ```bash $ cd geniusia2 $ ./venv/bin/python download_models.py ============================================================ 📊 Résumé ============================================================ ✅ OpenCLIP ✅ OWL-v2 ✅ Ollama (Qwen3-VL:8b) 🎉 Tous les modèles sont prêts ! ``` ### Lancer l'Application ```bash $ cd geniusia2 $ ./run.sh ``` --- ## 🎉 Résumé ✅ **Qwen3-VL:8b est configuré et opérationnel** L'application utilise maintenant : - **OpenCLIP** : Mémoire visuelle - **OWL-v2** : Détection d'éléments UI - **Qwen3-VL:8b** : Raisonnement visuel avancé **Tous les composants IA sont prêts ! 🚀**