- Frontend v4 accessible sur réseau local (192.168.1.40) - Ports ouverts: 3002 (frontend), 5001 (backend), 5004 (dashboard) - Ollama GPU fonctionnel - Self-healing interactif - Dashboard confiance Co-Authored-By: Claude Opus 4.5 <noreply@anthropic.com>
202 lines
3.9 KiB
Markdown
202 lines
3.9 KiB
Markdown
# ✅ Configuration Qwen3-VL:8b
|
|
|
|
## Modifications Appliquées
|
|
|
|
### 1. Configuration Mise à Jour
|
|
|
|
**Fichier** : `geniusia2/core/config.py`
|
|
|
|
```python
|
|
"models": {
|
|
"llm": "qwen3-vl:8b", # Changé de qwen2.5-vl:3b
|
|
}
|
|
```
|
|
|
|
### 2. Code LLM Manager Corrigé
|
|
|
|
**Fichier** : `geniusia2/core/llm_manager.py`
|
|
|
|
Correction de la détection des modèles Ollama pour supporter la nouvelle API :
|
|
|
|
```python
|
|
# Avant
|
|
model_names = [m['name'] for m in models.get('models', [])]
|
|
|
|
# Après
|
|
model_names = [m.model for m in models.models]
|
|
```
|
|
|
|
### 3. Documentation Mise à Jour
|
|
|
|
- `TELECHARGER_MODELES.md` : Qwen3-VL au lieu de Qwen 2.5-VL
|
|
- `download_models.py` : Détection de qwen3-vl
|
|
|
|
---
|
|
|
|
## Vérification
|
|
|
|
### Modèle Installé
|
|
|
|
```bash
|
|
$ ollama list | grep qwen3-vl
|
|
qwen3-vl:8b 901cae732162 6.1 GB About a minute ago
|
|
```
|
|
|
|
✅ **Qwen3-VL:8b est installé et disponible**
|
|
|
|
### Configuration Active
|
|
|
|
```bash
|
|
$ cd geniusia2
|
|
$ ./venv/bin/python -c "from core.config import CONFIG; print(CONFIG['models']['llm'])"
|
|
qwen3-vl:8b
|
|
```
|
|
|
|
✅ **La configuration utilise bien Qwen3-VL:8b**
|
|
|
|
### Test de Connexion
|
|
|
|
```bash
|
|
$ ./venv/bin/python test_qwen3_vl.py
|
|
============================================================
|
|
Test de Qwen3-VL:8b
|
|
============================================================
|
|
|
|
1. Initialisation du LLM Manager...
|
|
✓ LLM Manager initialisé
|
|
|
|
2. Création d'une image de test...
|
|
✓ Image de test créée (100x100)
|
|
|
|
✓ Test terminé
|
|
Qwen3-VL:8b est opérationnel !
|
|
```
|
|
|
|
✅ **Le LLM Manager se connecte correctement**
|
|
|
|
---
|
|
|
|
## Avantages de Qwen3-VL:8b
|
|
|
|
### Par rapport à Qwen 2.5-VL:3b
|
|
|
|
| Critère | Qwen 2.5-VL:3b | Qwen3-VL:8b |
|
|
|---------|----------------|-------------|
|
|
| **Paramètres** | 3 milliards | 8 milliards |
|
|
| **Taille** | ~2 GB | ~6 GB |
|
|
| **Qualité** | Bonne | Excellente |
|
|
| **Vitesse** | Rapide | Moyenne |
|
|
| **Compréhension** | Basique | Avancée |
|
|
|
|
### Capacités Améliorées
|
|
|
|
1. **Meilleure compréhension visuelle**
|
|
- Détection plus précise des éléments UI
|
|
- Meilleure reconnaissance du contexte
|
|
|
|
2. **Raisonnement plus robuste**
|
|
- Décisions plus pertinentes
|
|
- Moins d'erreurs d'interprétation
|
|
|
|
3. **Support multilingue amélioré**
|
|
- Meilleure compréhension du français
|
|
- Support de plus de langues
|
|
|
|
---
|
|
|
|
## Performance
|
|
|
|
### Temps de Réponse Estimés
|
|
|
|
**Avec CPU** :
|
|
- Qwen 2.5-VL:3b : ~1-2 secondes
|
|
- Qwen3-VL:8b : ~2-4 secondes
|
|
|
|
**Avec GPU (NVIDIA)** :
|
|
- Qwen 2.5-VL:3b : ~0.3-0.5 secondes
|
|
- Qwen3-VL:8b : ~0.5-1 seconde
|
|
|
|
### Recommandations
|
|
|
|
- **CPU uniquement** : Qwen3-VL:8b reste acceptable
|
|
- **GPU disponible** : Qwen3-VL:8b fortement recommandé
|
|
- **Ressources limitées** : Possibilité de revenir à qwen2.5-vl:3b
|
|
|
|
---
|
|
|
|
## Changer de Modèle
|
|
|
|
### Revenir à Qwen 2.5-VL
|
|
|
|
Si Qwen3-VL:8b est trop lent :
|
|
|
|
1. **Télécharger Qwen 2.5-VL** :
|
|
```bash
|
|
ollama pull qwen2.5-vl:3b
|
|
```
|
|
|
|
2. **Modifier la configuration** :
|
|
```python
|
|
# Dans geniusia2/core/config.py
|
|
"llm": "qwen2.5-vl:3b",
|
|
```
|
|
|
|
3. **Redémarrer l'application**
|
|
|
|
### Utiliser Qwen3-VL:32b
|
|
|
|
Pour une qualité maximale :
|
|
|
|
1. **Télécharger le modèle** :
|
|
```bash
|
|
ollama pull qwen3-vl:32b
|
|
```
|
|
|
|
2. **Modifier la configuration** :
|
|
```python
|
|
# Dans geniusia2/core/config.py
|
|
"llm": "qwen3-vl:32b",
|
|
```
|
|
|
|
**Attention** : Nécessite ~20 GB d'espace et beaucoup plus de RAM/VRAM
|
|
|
|
---
|
|
|
|
## Vérification Finale
|
|
|
|
### Tous les Modèles Prêts
|
|
|
|
```bash
|
|
$ cd geniusia2
|
|
$ ./venv/bin/python download_models.py
|
|
|
|
============================================================
|
|
📊 Résumé
|
|
============================================================
|
|
✅ OpenCLIP
|
|
✅ OWL-v2
|
|
✅ Ollama (Qwen3-VL:8b)
|
|
|
|
🎉 Tous les modèles sont prêts !
|
|
```
|
|
|
|
### Lancer l'Application
|
|
|
|
```bash
|
|
$ cd geniusia2
|
|
$ ./run.sh
|
|
```
|
|
|
|
---
|
|
|
|
## 🎉 Résumé
|
|
|
|
✅ **Qwen3-VL:8b est configuré et opérationnel**
|
|
|
|
L'application utilise maintenant :
|
|
- **OpenCLIP** : Mémoire visuelle
|
|
- **OWL-v2** : Détection d'éléments UI
|
|
- **Qwen3-VL:8b** : Raisonnement visuel avancé
|
|
|
|
**Tous les composants IA sont prêts ! 🚀**
|