Files
rpa_vision_v3/deploy_json_fix.sh
Dom a27b74cf22 v1.0 - Version stable: multi-PC, détection UI-DETR-1, 3 modes exécution
- Frontend v4 accessible sur réseau local (192.168.1.40)
- Ports ouverts: 3002 (frontend), 5001 (backend), 5004 (dashboard)
- Ollama GPU fonctionnel
- Self-healing interactif
- Dashboard confiance

Co-Authored-By: Claude Opus 4.5 <noreply@anthropic.com>
2026-01-29 11:23:51 +01:00

89 lines
3.1 KiB
Bash
Executable File
Raw Blame History

This file contains invisible Unicode characters
This file contains invisible Unicode characters that are indistinguishable to humans but may be processed differently by a computer. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.
#!/bin/bash
# Script de déploiement: support format='json' + qwen2.5vl:7b
set -e
echo "=========================================="
echo "Déploiement: Optimisations VLM JSON"
echo "=========================================="
echo ""
echo "📋 Changements:"
echo " - Ajout support format='json' dans Ollama"
echo " - Changement modèle: qwen3-vl:8b → qwen2.5vl:7b"
echo " - Correction sauvegarde workflow (to_dict vs to_json)"
echo " - Réduction attendue erreurs JSON: 80% → <5%"
echo ""
# 1. Déployer storage_manager.py avec correction workflow
echo "1⃣ Déploiement storage_manager.py (fix workflow save)..."
sudo cp /home/dom/ai/rpa_vision_v3/core/persistence/storage_manager.py \
/opt/rpa_vision_v3/core/persistence/storage_manager.py
sudo chown rpa:rpa /opt/rpa_vision_v3/core/persistence/storage_manager.py
echo " ✅ storage_manager.py déployé"
echo ""
# 2. Déployer ollama_client.py avec format='json'
echo "2⃣ Déploiement ollama_client.py..."
sudo cp /home/dom/ai/rpa_vision_v3/core/detection/ollama_client.py \
/opt/rpa_vision_v3/core/detection/ollama_client.py
sudo chown rpa:rpa /opt/rpa_vision_v3/core/detection/ollama_client.py
echo " ✅ ollama_client.py déployé"
echo ""
# 3. Déployer ui_detector.py avec qwen2.5vl:7b
echo "3⃣ Déploiement ui_detector.py..."
sudo cp /home/dom/ai/rpa_vision_v3/core/detection/ui_detector.py \
/opt/rpa_vision_v3/core/detection/ui_detector.py
sudo chown rpa:rpa /opt/rpa_vision_v3/core/detection/ui_detector.py
echo " ✅ ui_detector.py déployé"
echo ""
# 4. Vérifier que qwen2.5vl:7b est disponible
echo "4⃣ Vérification du modèle qwen2.5vl:7b..."
if curl -s http://localhost:11434/api/tags | grep -q "qwen2.5vl:7b"; then
echo " ✅ qwen2.5vl:7b disponible"
else
echo " ⚠️ qwen2.5vl:7b non trouvé, téléchargement..."
ollama pull qwen2.5vl:7b
fi
echo ""
# 5. Redémarrer le worker
echo "5⃣ Redémarrage du worker..."
sudo systemctl restart rpa-vision-v3-worker.service
sleep 3
echo ""
# 6. Vérifier le statut
echo "6⃣ Vérification du statut..."
if sudo systemctl is-active --quiet rpa-vision-v3-worker.service; then
echo " ✅ Worker redémarré avec succès"
else
echo " ❌ Erreur: le worker n'est pas actif"
sudo systemctl status rpa-vision-v3-worker.service --no-pager | tail -10
exit 1
fi
echo ""
# 7. Vérifier les logs de démarrage
echo "7⃣ Vérification de l'initialisation..."
sleep 2
sudo journalctl -u rpa-vision-v3-worker --since "10 seconds ago" --no-pager | grep -E "(qwen|VLM initialized)" | tail -3
echo ""
echo "=========================================="
echo "✅ Déploiement terminé!"
echo "=========================================="
echo ""
echo "📊 Pour tester:"
echo " 1. Lancer une nouvelle session avec l'agent V0"
echo " 2. Surveiller les logs pour vérifier:"
echo " - Modèle chargé: qwen2.5vl:7b"
echo " - Erreurs JSON: devrait être <5%"
echo " - Vitesse: devrait être 2x plus rapide"
echo ""
echo "🔍 Commande de surveillance:"
echo " journalctl -u rpa-vision-v3-worker -f | grep -E '(JSON parse error|Detected.*UI elements|qwen)'"
echo ""