v1.0 - Version stable: multi-PC, détection UI-DETR-1, 3 modes exécution

- Frontend v4 accessible sur réseau local (192.168.1.40)
- Ports ouverts: 3002 (frontend), 5001 (backend), 5004 (dashboard)
- Ollama GPU fonctionnel
- Self-healing interactif
- Dashboard confiance

Co-Authored-By: Claude Opus 4.5 <noreply@anthropic.com>
This commit is contained in:
Dom
2026-01-29 11:23:51 +01:00
parent 21bfa3b337
commit a27b74cf22
1595 changed files with 412691 additions and 400 deletions

88
deploy_json_fix.sh Executable file
View File

@@ -0,0 +1,88 @@
#!/bin/bash
# Script de déploiement: support format='json' + qwen2.5vl:7b
set -e
echo "=========================================="
echo "Déploiement: Optimisations VLM JSON"
echo "=========================================="
echo ""
echo "📋 Changements:"
echo " - Ajout support format='json' dans Ollama"
echo " - Changement modèle: qwen3-vl:8b → qwen2.5vl:7b"
echo " - Correction sauvegarde workflow (to_dict vs to_json)"
echo " - Réduction attendue erreurs JSON: 80% → <5%"
echo ""
# 1. Déployer storage_manager.py avec correction workflow
echo "1⃣ Déploiement storage_manager.py (fix workflow save)..."
sudo cp /home/dom/ai/rpa_vision_v3/core/persistence/storage_manager.py \
/opt/rpa_vision_v3/core/persistence/storage_manager.py
sudo chown rpa:rpa /opt/rpa_vision_v3/core/persistence/storage_manager.py
echo " ✅ storage_manager.py déployé"
echo ""
# 2. Déployer ollama_client.py avec format='json'
echo "2⃣ Déploiement ollama_client.py..."
sudo cp /home/dom/ai/rpa_vision_v3/core/detection/ollama_client.py \
/opt/rpa_vision_v3/core/detection/ollama_client.py
sudo chown rpa:rpa /opt/rpa_vision_v3/core/detection/ollama_client.py
echo " ✅ ollama_client.py déployé"
echo ""
# 3. Déployer ui_detector.py avec qwen2.5vl:7b
echo "3⃣ Déploiement ui_detector.py..."
sudo cp /home/dom/ai/rpa_vision_v3/core/detection/ui_detector.py \
/opt/rpa_vision_v3/core/detection/ui_detector.py
sudo chown rpa:rpa /opt/rpa_vision_v3/core/detection/ui_detector.py
echo " ✅ ui_detector.py déployé"
echo ""
# 4. Vérifier que qwen2.5vl:7b est disponible
echo "4⃣ Vérification du modèle qwen2.5vl:7b..."
if curl -s http://localhost:11434/api/tags | grep -q "qwen2.5vl:7b"; then
echo " ✅ qwen2.5vl:7b disponible"
else
echo " ⚠️ qwen2.5vl:7b non trouvé, téléchargement..."
ollama pull qwen2.5vl:7b
fi
echo ""
# 5. Redémarrer le worker
echo "5⃣ Redémarrage du worker..."
sudo systemctl restart rpa-vision-v3-worker.service
sleep 3
echo ""
# 6. Vérifier le statut
echo "6⃣ Vérification du statut..."
if sudo systemctl is-active --quiet rpa-vision-v3-worker.service; then
echo " ✅ Worker redémarré avec succès"
else
echo " ❌ Erreur: le worker n'est pas actif"
sudo systemctl status rpa-vision-v3-worker.service --no-pager | tail -10
exit 1
fi
echo ""
# 7. Vérifier les logs de démarrage
echo "7⃣ Vérification de l'initialisation..."
sleep 2
sudo journalctl -u rpa-vision-v3-worker --since "10 seconds ago" --no-pager | grep -E "(qwen|VLM initialized)" | tail -3
echo ""
echo "=========================================="
echo "✅ Déploiement terminé!"
echo "=========================================="
echo ""
echo "📊 Pour tester:"
echo " 1. Lancer une nouvelle session avec l'agent V0"
echo " 2. Surveiller les logs pour vérifier:"
echo " - Modèle chargé: qwen2.5vl:7b"
echo " - Erreurs JSON: devrait être <5%"
echo " - Vitesse: devrait être 2x plus rapide"
echo ""
echo "🔍 Commande de surveillance:"
echo " journalctl -u rpa-vision-v3-worker -f | grep -E '(JSON parse error|Detected.*UI elements|qwen)'"
echo ""