v1.0 - Version stable: multi-PC, détection UI-DETR-1, 3 modes exécution
- Frontend v4 accessible sur réseau local (192.168.1.40) - Ports ouverts: 3002 (frontend), 5001 (backend), 5004 (dashboard) - Ollama GPU fonctionnel - Self-healing interactif - Dashboard confiance Co-Authored-By: Claude Opus 4.5 <noreply@anthropic.com>
This commit is contained in:
35
test_quick.sh
Executable file
35
test_quick.sh
Executable file
@@ -0,0 +1,35 @@
|
||||
#!/bin/bash
|
||||
# Test rapide du système de détection hybride
|
||||
|
||||
echo "🚀 Test Rapide - Détection UI Hybride"
|
||||
echo "======================================"
|
||||
echo ""
|
||||
|
||||
# Vérifier Ollama
|
||||
echo "1. Vérification d'Ollama..."
|
||||
if ! curl -s http://localhost:11434/api/tags > /dev/null 2>&1; then
|
||||
echo "❌ Ollama n'est pas disponible"
|
||||
echo " Lancez: ollama serve"
|
||||
exit 1
|
||||
fi
|
||||
echo "✓ Ollama disponible"
|
||||
echo ""
|
||||
|
||||
# Vérifier le modèle
|
||||
echo "2. Vérification du modèle qwen3-vl:8b..."
|
||||
if ! ollama list | grep -q "qwen3-vl:8b"; then
|
||||
echo "⚠ Modèle non trouvé"
|
||||
echo " Téléchargez-le: ollama pull qwen3-vl:8b"
|
||||
exit 1
|
||||
fi
|
||||
echo "✓ Modèle disponible"
|
||||
echo ""
|
||||
|
||||
# Lancer le test
|
||||
echo "3. Lancement du test..."
|
||||
echo ""
|
||||
python3 examples/test_complete_real.py
|
||||
|
||||
echo ""
|
||||
echo "======================================"
|
||||
echo "Test terminé"
|
||||
Reference in New Issue
Block a user