- Frontend v4 accessible sur réseau local (192.168.1.40) - Ports ouverts: 3002 (frontend), 5001 (backend), 5004 (dashboard) - Ollama GPU fonctionnel - Self-healing interactif - Dashboard confiance Co-Authored-By: Claude Opus 4.5 <noreply@anthropic.com>
89 lines
3.1 KiB
Bash
Executable File
89 lines
3.1 KiB
Bash
Executable File
#!/bin/bash
|
||
# Script de déploiement: support format='json' + qwen2.5vl:7b
|
||
|
||
set -e
|
||
|
||
echo "=========================================="
|
||
echo "Déploiement: Optimisations VLM JSON"
|
||
echo "=========================================="
|
||
echo ""
|
||
|
||
echo "📋 Changements:"
|
||
echo " - Ajout support format='json' dans Ollama"
|
||
echo " - Changement modèle: qwen3-vl:8b → qwen2.5vl:7b"
|
||
echo " - Correction sauvegarde workflow (to_dict vs to_json)"
|
||
echo " - Réduction attendue erreurs JSON: 80% → <5%"
|
||
echo ""
|
||
|
||
# 1. Déployer storage_manager.py avec correction workflow
|
||
echo "1️⃣ Déploiement storage_manager.py (fix workflow save)..."
|
||
sudo cp /home/dom/ai/rpa_vision_v3/core/persistence/storage_manager.py \
|
||
/opt/rpa_vision_v3/core/persistence/storage_manager.py
|
||
sudo chown rpa:rpa /opt/rpa_vision_v3/core/persistence/storage_manager.py
|
||
echo " ✅ storage_manager.py déployé"
|
||
echo ""
|
||
|
||
# 2. Déployer ollama_client.py avec format='json'
|
||
echo "2️⃣ Déploiement ollama_client.py..."
|
||
sudo cp /home/dom/ai/rpa_vision_v3/core/detection/ollama_client.py \
|
||
/opt/rpa_vision_v3/core/detection/ollama_client.py
|
||
sudo chown rpa:rpa /opt/rpa_vision_v3/core/detection/ollama_client.py
|
||
echo " ✅ ollama_client.py déployé"
|
||
echo ""
|
||
|
||
# 3. Déployer ui_detector.py avec qwen2.5vl:7b
|
||
echo "3️⃣ Déploiement ui_detector.py..."
|
||
sudo cp /home/dom/ai/rpa_vision_v3/core/detection/ui_detector.py \
|
||
/opt/rpa_vision_v3/core/detection/ui_detector.py
|
||
sudo chown rpa:rpa /opt/rpa_vision_v3/core/detection/ui_detector.py
|
||
echo " ✅ ui_detector.py déployé"
|
||
echo ""
|
||
|
||
# 4. Vérifier que qwen2.5vl:7b est disponible
|
||
echo "4️⃣ Vérification du modèle qwen2.5vl:7b..."
|
||
if curl -s http://localhost:11434/api/tags | grep -q "qwen2.5vl:7b"; then
|
||
echo " ✅ qwen2.5vl:7b disponible"
|
||
else
|
||
echo " ⚠️ qwen2.5vl:7b non trouvé, téléchargement..."
|
||
ollama pull qwen2.5vl:7b
|
||
fi
|
||
echo ""
|
||
|
||
# 5. Redémarrer le worker
|
||
echo "5️⃣ Redémarrage du worker..."
|
||
sudo systemctl restart rpa-vision-v3-worker.service
|
||
sleep 3
|
||
echo ""
|
||
|
||
# 6. Vérifier le statut
|
||
echo "6️⃣ Vérification du statut..."
|
||
if sudo systemctl is-active --quiet rpa-vision-v3-worker.service; then
|
||
echo " ✅ Worker redémarré avec succès"
|
||
else
|
||
echo " ❌ Erreur: le worker n'est pas actif"
|
||
sudo systemctl status rpa-vision-v3-worker.service --no-pager | tail -10
|
||
exit 1
|
||
fi
|
||
echo ""
|
||
|
||
# 7. Vérifier les logs de démarrage
|
||
echo "7️⃣ Vérification de l'initialisation..."
|
||
sleep 2
|
||
sudo journalctl -u rpa-vision-v3-worker --since "10 seconds ago" --no-pager | grep -E "(qwen|VLM initialized)" | tail -3
|
||
echo ""
|
||
|
||
echo "=========================================="
|
||
echo "✅ Déploiement terminé!"
|
||
echo "=========================================="
|
||
echo ""
|
||
echo "📊 Pour tester:"
|
||
echo " 1. Lancer une nouvelle session avec l'agent V0"
|
||
echo " 2. Surveiller les logs pour vérifier:"
|
||
echo " - Modèle chargé: qwen2.5vl:7b"
|
||
echo " - Erreurs JSON: devrait être <5%"
|
||
echo " - Vitesse: devrait être 2x plus rapide"
|
||
echo ""
|
||
echo "🔍 Commande de surveillance:"
|
||
echo " journalctl -u rpa-vision-v3-worker -f | grep -E '(JSON parse error|Detected.*UI elements|qwen)'"
|
||
echo ""
|