chore: sauvegarde complète avant factorisation executor
Some checks failed
security-audit / Bandit (scan statique) (push) Successful in 12s
security-audit / pip-audit (CVE dépendances) (push) Successful in 10s
security-audit / Scan secrets (grep) (push) Successful in 8s
tests / Lint (ruff + black) (push) Successful in 13s
tests / Tests unitaires (sans GPU) (push) Failing after 14s
tests / Tests sécurité (critique) (push) Has been skipped

Point de sauvegarde incluant les fichiers non committés des sessions
précédentes (systemd, docs, agents, GPU manager).

Co-Authored-By: Claude Opus 4.6 (1M context) <noreply@anthropic.com>
This commit is contained in:
Dom
2026-04-20 17:03:44 +02:00
parent 623be15bfe
commit 447fbb2c6e
1869 changed files with 791438 additions and 324 deletions

View File

@@ -29,7 +29,7 @@ from ...contracts.visual_anchor import VWBVisualAnchor
# Configuration par défaut (centralisée via variable d'environnement)
OLLAMA_DEFAULT_URL = os.environ.get("OLLAMA_URL", "http://localhost:11434")
OLLAMA_DEFAULT_MODEL = os.environ.get("VLM_MODEL", "qwen2.5-vl:7b")
OLLAMA_DEFAULT_MODEL = os.environ.get("RPA_VLM_MODEL", os.environ.get("VLM_MODEL", "gemma4:e4b"))
class VWBExtraireTableauAction(BaseVWBAction):

View File

@@ -27,7 +27,7 @@ import os
# Configuration Ollama par défaut (configurable via variables d'environnement)
OLLAMA_DEFAULT_URL = os.environ.get("OLLAMA_URL", "http://localhost:11434")
OLLAMA_DEFAULT_MODEL = os.environ.get("VLM_MODEL", "qwen3-vl:8b")
OLLAMA_DEFAULT_MODEL = os.environ.get("RPA_VLM_MODEL", os.environ.get("VLM_MODEL", "gemma4:e4b"))
class VWBAnalyserAvecIAAction(BaseVWBAction):

View File

@@ -39,7 +39,7 @@ class VWBVerifyTextContentAction(BaseVWBAction):
# Configuration Ollama par défaut (centralisée via variable d'environnement)
OLLAMA_URL = os.environ.get("OLLAMA_URL", "http://localhost:11434")
OLLAMA_MODEL = os.environ.get("VLM_MODEL", "qwen2.5-vl:7b") # Modèle de vision Qwen - excellent pour OCR
OLLAMA_MODEL = os.environ.get("RPA_VLM_MODEL", os.environ.get("VLM_MODEL", "gemma4:e4b"))
def __init__(
self,

View File

@@ -110,11 +110,11 @@ except Exception as e:
# ============================================================================
# VLM (Vision Language Model) - Ollama (fallback si OmniParser échoue)
# Configurable via variable d'environnement VLM_MODEL
# Configurable via variable d'environnement RPA_VLM_MODEL (ou VLM_MODEL)
# ============================================================================
OLLAMA_URL = os.environ.get("OLLAMA_URL", "http://localhost:11434")
VLM_MODEL = os.environ.get("VLM_MODEL", "qwen3-vl:8b") # qwen3-vl offre une meilleure qualité OCR
VLM_MODEL = os.environ.get("RPA_VLM_MODEL", os.environ.get("VLM_MODEL", "gemma4:e4b"))
# ============================================================================
# Pipeline VLM Coarse → Refine → Refine++ (Template Matching)

View File

@@ -0,0 +1,67 @@
{
"workflow_id": "wf_f87a537d53fc_1776523414",
"workflow_name": "Windows_navigateur",
"description": "",
"tags": [],
"steps": [
{
"order": 0,
"action_type": "click_anchor",
"label": "click_anchor",
"parameters": {
"visual_anchor": {
"anchor_id": "anchor_e699f12dea5d_1776523946",
"bounding_box": {
"x": 1207,
"y": 1025,
"width": 52,
"height": 50
}
}
},
"has_anchor": true
},
{
"order": 0,
"action_type": "wait_for_anchor",
"label": "wait_for_anchor",
"parameters": {
"visual_anchor": {
"anchor_id": "anchor_c4784649c3f7_1776524106",
"bounding_box": {
"x": 190,
"y": 35,
"width": 140,
"height": 93
}
}
},
"has_anchor": true
},
{
"order": 0,
"action_type": "type_text",
"label": "type_text",
"parameters": {
"text": "https://youtube.com",
"clear_before": true
},
"has_anchor": false
}
],
"exported_at": "2026-04-18T17:55:19.588636",
"metadata": {
"step_count": 3,
"action_types": [
"type_text",
"click_anchor",
"wait_for_anchor"
],
"has_anchors": true,
"warnings": [
"Étape 1 (click_anchor): pas de label personnalisé",
"Étape 2 (wait_for_anchor): pas de label personnalisé",
"Étape 3 (type_text): pas de label personnalisé"
]
}
}