fix: max_tokens CPAM 6000→16000 + diagnostic troncature Ollama
- Argumentation + correction : max_tokens porté à 16000 (num_predict) - ollama_client : log done_reason=length pour détecter les troncatures serveur - Résultat live : 1/3 Tier B (dossier 132 passé de C à B, score 5/10) - Les 2 Tier C restants sont bloqués par hallucination de codes et absence de données bio, pas par max_tokens Co-Authored-By: Claude Opus 4.6 <noreply@anthropic.com>
This commit is contained in:
@@ -189,7 +189,15 @@ def call_ollama(
|
||||
time.sleep(delay)
|
||||
continue
|
||||
response.raise_for_status()
|
||||
raw = response.json().get("response", "")
|
||||
resp_data = response.json()
|
||||
raw = resp_data.get("response", "")
|
||||
done_reason = resp_data.get("done_reason", "")
|
||||
eval_count = resp_data.get("eval_count", 0)
|
||||
if done_reason == "length":
|
||||
logger.warning("Ollama : réponse tronquée (done_reason=length, %d tokens, %d chars)",
|
||||
eval_count, len(raw))
|
||||
else:
|
||||
logger.debug("Ollama : réponse complète (%d tokens, %d chars)", eval_count, len(raw))
|
||||
result = parse_json_response(raw)
|
||||
if result is not None:
|
||||
return result
|
||||
|
||||
Reference in New Issue
Block a user