- Frontend v4 accessible sur réseau local (192.168.1.40) - Ports ouverts: 3002 (frontend), 5001 (backend), 5004 (dashboard) - Ollama GPU fonctionnel - Self-healing interactif - Dashboard confiance Co-Authored-By: Claude Opus 4.5 <noreply@anthropic.com>
48 lines
1.3 KiB
Bash
Executable File
48 lines
1.3 KiB
Bash
Executable File
#!/bin/bash
|
|
|
|
# Script de test rapide pour valider le système de détection hybride
|
|
|
|
echo "=================================================="
|
|
echo " Test Rapide - Détection Hybride"
|
|
echo "=================================================="
|
|
echo ""
|
|
|
|
# Vérifier Ollama
|
|
echo "1. Vérification Ollama..."
|
|
if ! curl -s http://localhost:11434/api/tags > /dev/null 2>&1; then
|
|
echo "❌ Ollama n'est pas accessible"
|
|
echo " Démarrer avec: ollama serve"
|
|
exit 1
|
|
fi
|
|
echo "✓ Ollama accessible"
|
|
echo ""
|
|
|
|
# Vérifier qwen3-vl:8b
|
|
echo "2. Vérification qwen3-vl:8b..."
|
|
if ! curl -s http://localhost:11434/api/tags | grep -q "qwen3-vl:8b"; then
|
|
echo "❌ qwen3-vl:8b n'est pas installé"
|
|
echo " Installer avec: ollama pull qwen3-vl:8b"
|
|
exit 1
|
|
fi
|
|
echo "✓ qwen3-vl:8b installé"
|
|
echo ""
|
|
|
|
# Créer un screenshot de test si nécessaire
|
|
echo "3. Préparation screenshot de test..."
|
|
if [ ! -f "test_screenshot.png" ]; then
|
|
echo " Création d'un screenshot de test..."
|
|
python3 create_test_screenshot.py
|
|
fi
|
|
echo "✓ Screenshot prêt"
|
|
echo ""
|
|
|
|
# Lancer le test complet
|
|
echo "4. Lancement du test de détection..."
|
|
echo "=================================================="
|
|
python3 test_complete_real.py
|
|
|
|
echo ""
|
|
echo "=================================================="
|
|
echo " Test terminé"
|
|
echo "=================================================="
|