- Frontend v4 accessible sur réseau local (192.168.1.40) - Ports ouverts: 3002 (frontend), 5001 (backend), 5004 (dashboard) - Ollama GPU fonctionnel - Self-healing interactif - Dashboard confiance Co-Authored-By: Claude Opus 4.5 <noreply@anthropic.com>
3.9 KiB
3.9 KiB
✅ Configuration Qwen3-VL:8b
Modifications Appliquées
1. Configuration Mise à Jour
Fichier : geniusia2/core/config.py
"models": {
"llm": "qwen3-vl:8b", # Changé de qwen2.5-vl:3b
}
2. Code LLM Manager Corrigé
Fichier : geniusia2/core/llm_manager.py
Correction de la détection des modèles Ollama pour supporter la nouvelle API :
# Avant
model_names = [m['name'] for m in models.get('models', [])]
# Après
model_names = [m.model for m in models.models]
3. Documentation Mise à Jour
TELECHARGER_MODELES.md: Qwen3-VL au lieu de Qwen 2.5-VLdownload_models.py: Détection de qwen3-vl
Vérification
Modèle Installé
$ ollama list | grep qwen3-vl
qwen3-vl:8b 901cae732162 6.1 GB About a minute ago
✅ Qwen3-VL:8b est installé et disponible
Configuration Active
$ cd geniusia2
$ ./venv/bin/python -c "from core.config import CONFIG; print(CONFIG['models']['llm'])"
qwen3-vl:8b
✅ La configuration utilise bien Qwen3-VL:8b
Test de Connexion
$ ./venv/bin/python test_qwen3_vl.py
============================================================
Test de Qwen3-VL:8b
============================================================
1. Initialisation du LLM Manager...
✓ LLM Manager initialisé
2. Création d'une image de test...
✓ Image de test créée (100x100)
✓ Test terminé
Qwen3-VL:8b est opérationnel !
✅ Le LLM Manager se connecte correctement
Avantages de Qwen3-VL:8b
Par rapport à Qwen 2.5-VL:3b
| Critère | Qwen 2.5-VL:3b | Qwen3-VL:8b |
|---|---|---|
| Paramètres | 3 milliards | 8 milliards |
| Taille | ~2 GB | ~6 GB |
| Qualité | Bonne | Excellente |
| Vitesse | Rapide | Moyenne |
| Compréhension | Basique | Avancée |
Capacités Améliorées
-
Meilleure compréhension visuelle
- Détection plus précise des éléments UI
- Meilleure reconnaissance du contexte
-
Raisonnement plus robuste
- Décisions plus pertinentes
- Moins d'erreurs d'interprétation
-
Support multilingue amélioré
- Meilleure compréhension du français
- Support de plus de langues
Performance
Temps de Réponse Estimés
Avec CPU :
- Qwen 2.5-VL:3b : ~1-2 secondes
- Qwen3-VL:8b : ~2-4 secondes
Avec GPU (NVIDIA) :
- Qwen 2.5-VL:3b : ~0.3-0.5 secondes
- Qwen3-VL:8b : ~0.5-1 seconde
Recommandations
- CPU uniquement : Qwen3-VL:8b reste acceptable
- GPU disponible : Qwen3-VL:8b fortement recommandé
- Ressources limitées : Possibilité de revenir à qwen2.5-vl:3b
Changer de Modèle
Revenir à Qwen 2.5-VL
Si Qwen3-VL:8b est trop lent :
- Télécharger Qwen 2.5-VL :
ollama pull qwen2.5-vl:3b
- Modifier la configuration :
# Dans geniusia2/core/config.py
"llm": "qwen2.5-vl:3b",
- Redémarrer l'application
Utiliser Qwen3-VL:32b
Pour une qualité maximale :
- Télécharger le modèle :
ollama pull qwen3-vl:32b
- Modifier la configuration :
# Dans geniusia2/core/config.py
"llm": "qwen3-vl:32b",
Attention : Nécessite ~20 GB d'espace et beaucoup plus de RAM/VRAM
Vérification Finale
Tous les Modèles Prêts
$ cd geniusia2
$ ./venv/bin/python download_models.py
============================================================
📊 Résumé
============================================================
✅ OpenCLIP
✅ OWL-v2
✅ Ollama (Qwen3-VL:8b)
🎉 Tous les modèles sont prêts !
Lancer l'Application
$ cd geniusia2
$ ./run.sh
🎉 Résumé
✅ Qwen3-VL:8b est configuré et opérationnel
L'application utilise maintenant :
- OpenCLIP : Mémoire visuelle
- OWL-v2 : Détection d'éléments UI
- Qwen3-VL:8b : Raisonnement visuel avancé
Tous les composants IA sont prêts ! 🚀