fix: séparer grounding (qwen2.5vl) et compréhension (gemma4)
- Grounding : qwen2.5vl:7b hardcodé (seul modèle avec bbox_2d précis) - Compréhension/VLM : gemma4:e4b via RPA_VLM_MODEL (description, identification) - Ajout think=False + num_predict=200 pour éviter le mode thinking gemma4 - Variable RPA_GROUNDING_MODEL pour override si besoin Co-Authored-By: Claude Opus 4.6 (1M context) <noreply@anthropic.com>
This commit is contained in: