- Frontend v4 accessible sur réseau local (192.168.1.40) - Ports ouverts: 3002 (frontend), 5001 (backend), 5004 (dashboard) - Ollama GPU fonctionnel - Self-healing interactif - Dashboard confiance Co-Authored-By: Claude Opus 4.5 <noreply@anthropic.com>
36 lines
852 B
Bash
Executable File
36 lines
852 B
Bash
Executable File
#!/bin/bash
|
|
# Test rapide du système de détection hybride
|
|
|
|
echo "🚀 Test Rapide - Détection UI Hybride"
|
|
echo "======================================"
|
|
echo ""
|
|
|
|
# Vérifier Ollama
|
|
echo "1. Vérification d'Ollama..."
|
|
if ! curl -s http://localhost:11434/api/tags > /dev/null 2>&1; then
|
|
echo "❌ Ollama n'est pas disponible"
|
|
echo " Lancez: ollama serve"
|
|
exit 1
|
|
fi
|
|
echo "✓ Ollama disponible"
|
|
echo ""
|
|
|
|
# Vérifier le modèle
|
|
echo "2. Vérification du modèle qwen3-vl:8b..."
|
|
if ! ollama list | grep -q "qwen3-vl:8b"; then
|
|
echo "⚠ Modèle non trouvé"
|
|
echo " Téléchargez-le: ollama pull qwen3-vl:8b"
|
|
exit 1
|
|
fi
|
|
echo "✓ Modèle disponible"
|
|
echo ""
|
|
|
|
# Lancer le test
|
|
echo "3. Lancement du test..."
|
|
echo ""
|
|
python3 examples/test_complete_real.py
|
|
|
|
echo ""
|
|
echo "======================================"
|
|
echo "Test terminé"
|