v1.0 - Version stable: multi-PC, détection UI-DETR-1, 3 modes exécution
- Frontend v4 accessible sur réseau local (192.168.1.40) - Ports ouverts: 3002 (frontend), 5001 (backend), 5004 (dashboard) - Ollama GPU fonctionnel - Self-healing interactif - Dashboard confiance Co-Authored-By: Claude Opus 4.5 <noreply@anthropic.com>
This commit is contained in:
88
deploy_json_fix.sh
Executable file
88
deploy_json_fix.sh
Executable file
@@ -0,0 +1,88 @@
|
||||
#!/bin/bash
|
||||
# Script de déploiement: support format='json' + qwen2.5vl:7b
|
||||
|
||||
set -e
|
||||
|
||||
echo "=========================================="
|
||||
echo "Déploiement: Optimisations VLM JSON"
|
||||
echo "=========================================="
|
||||
echo ""
|
||||
|
||||
echo "📋 Changements:"
|
||||
echo " - Ajout support format='json' dans Ollama"
|
||||
echo " - Changement modèle: qwen3-vl:8b → qwen2.5vl:7b"
|
||||
echo " - Correction sauvegarde workflow (to_dict vs to_json)"
|
||||
echo " - Réduction attendue erreurs JSON: 80% → <5%"
|
||||
echo ""
|
||||
|
||||
# 1. Déployer storage_manager.py avec correction workflow
|
||||
echo "1️⃣ Déploiement storage_manager.py (fix workflow save)..."
|
||||
sudo cp /home/dom/ai/rpa_vision_v3/core/persistence/storage_manager.py \
|
||||
/opt/rpa_vision_v3/core/persistence/storage_manager.py
|
||||
sudo chown rpa:rpa /opt/rpa_vision_v3/core/persistence/storage_manager.py
|
||||
echo " ✅ storage_manager.py déployé"
|
||||
echo ""
|
||||
|
||||
# 2. Déployer ollama_client.py avec format='json'
|
||||
echo "2️⃣ Déploiement ollama_client.py..."
|
||||
sudo cp /home/dom/ai/rpa_vision_v3/core/detection/ollama_client.py \
|
||||
/opt/rpa_vision_v3/core/detection/ollama_client.py
|
||||
sudo chown rpa:rpa /opt/rpa_vision_v3/core/detection/ollama_client.py
|
||||
echo " ✅ ollama_client.py déployé"
|
||||
echo ""
|
||||
|
||||
# 3. Déployer ui_detector.py avec qwen2.5vl:7b
|
||||
echo "3️⃣ Déploiement ui_detector.py..."
|
||||
sudo cp /home/dom/ai/rpa_vision_v3/core/detection/ui_detector.py \
|
||||
/opt/rpa_vision_v3/core/detection/ui_detector.py
|
||||
sudo chown rpa:rpa /opt/rpa_vision_v3/core/detection/ui_detector.py
|
||||
echo " ✅ ui_detector.py déployé"
|
||||
echo ""
|
||||
|
||||
# 4. Vérifier que qwen2.5vl:7b est disponible
|
||||
echo "4️⃣ Vérification du modèle qwen2.5vl:7b..."
|
||||
if curl -s http://localhost:11434/api/tags | grep -q "qwen2.5vl:7b"; then
|
||||
echo " ✅ qwen2.5vl:7b disponible"
|
||||
else
|
||||
echo " ⚠️ qwen2.5vl:7b non trouvé, téléchargement..."
|
||||
ollama pull qwen2.5vl:7b
|
||||
fi
|
||||
echo ""
|
||||
|
||||
# 5. Redémarrer le worker
|
||||
echo "5️⃣ Redémarrage du worker..."
|
||||
sudo systemctl restart rpa-vision-v3-worker.service
|
||||
sleep 3
|
||||
echo ""
|
||||
|
||||
# 6. Vérifier le statut
|
||||
echo "6️⃣ Vérification du statut..."
|
||||
if sudo systemctl is-active --quiet rpa-vision-v3-worker.service; then
|
||||
echo " ✅ Worker redémarré avec succès"
|
||||
else
|
||||
echo " ❌ Erreur: le worker n'est pas actif"
|
||||
sudo systemctl status rpa-vision-v3-worker.service --no-pager | tail -10
|
||||
exit 1
|
||||
fi
|
||||
echo ""
|
||||
|
||||
# 7. Vérifier les logs de démarrage
|
||||
echo "7️⃣ Vérification de l'initialisation..."
|
||||
sleep 2
|
||||
sudo journalctl -u rpa-vision-v3-worker --since "10 seconds ago" --no-pager | grep -E "(qwen|VLM initialized)" | tail -3
|
||||
echo ""
|
||||
|
||||
echo "=========================================="
|
||||
echo "✅ Déploiement terminé!"
|
||||
echo "=========================================="
|
||||
echo ""
|
||||
echo "📊 Pour tester:"
|
||||
echo " 1. Lancer une nouvelle session avec l'agent V0"
|
||||
echo " 2. Surveiller les logs pour vérifier:"
|
||||
echo " - Modèle chargé: qwen2.5vl:7b"
|
||||
echo " - Erreurs JSON: devrait être <5%"
|
||||
echo " - Vitesse: devrait être 2x plus rapide"
|
||||
echo ""
|
||||
echo "🔍 Commande de surveillance:"
|
||||
echo " journalctl -u rpa-vision-v3-worker -f | grep -E '(JSON parse error|Detected.*UI elements|qwen)'"
|
||||
echo ""
|
||||
Reference in New Issue
Block a user