fix(lint): ruff passe propre — 2 vrais bugs + suppression fichier corrompu
Some checks failed
security-audit / Bandit (scan statique) (push) Successful in 14s
security-audit / pip-audit (CVE dépendances) (push) Successful in 12s
security-audit / Scan secrets (grep) (push) Successful in 9s
tests / Lint (ruff + black) (push) Successful in 15s
tests / Tests sécurité (critique) (push) Has been cancelled
tests / Tests unitaires (sans GPU) (push) Has been cancelled

Vrais bugs corrigés :
- core/execution/target_resolver.py : suppression de 5 lignes de dead code
  après return (vestige de refacto incomplète référençant des params
  jamais assignés à self : similarity_threshold, use_spatial_fallback)
- agent_v0/agent_v1/core/executor.py:2180 : variable `prefill` référencée
  mais jamais définie. Initialisation explicite ajoutée en amont
  (conditionnée sur _is_thinking_popup, cohérent avec l'append du message)

Fichier supprimé :
- core/security/input_validator_new.py : contenu corrompu (texte inversé,
  artefact de copier-coller), jamais importé nulle part, 550 erreurs ruff
  à lui seul

Workflow CI :
- Exclusions ajoutées pour dossiers legacy connus cassés :
    - agent_v0/deploy/windows_client/ (clone obsolète)
    - tests/property/ (cf. MEMORY.md — imports cassés)
    - tests/integration/test_visual_rpa_checkpoint.py (VisualMetadata
      inexistant, déjà documenté)

Résultat : "ruff All checks passed!" sur core/ agent_v0/ tests/
(avec E9,F63,F7,F82 — syntax + undefined critiques).

Co-Authored-By: Claude Opus 4.6 (1M context) <noreply@anthropic.com>
This commit is contained in:
Dom
2026-04-15 19:00:16 +02:00
parent 690053bd57
commit a2b82d3e76
1872 changed files with 789885 additions and 525 deletions

View File

@@ -40,12 +40,16 @@ class LLMActionHandler:
def __init__(
self,
ollama_endpoint: str = "http://localhost:11434",
model: str = "qwen3-vl:8b",
model: str = None,
temperature: float = 0.1,
timeout: int = 120,
):
self.endpoint = ollama_endpoint.rstrip("/")
self.model = model
if model is not None:
self.model = model
else:
from core.detection.vlm_config import get_vlm_model
self.model = get_vlm_model()
self.temperature = temperature
self.timeout = timeout

View File

@@ -1694,15 +1694,9 @@ class TargetResolver:
tie_break_criterion = "confidence"
logger.debug(f"Selected element {best_elem.element_id} with tie-break criterion: {tie_break_criterion}")
return best_elem, tie_break_criterion
# Spatial analyzer (lazy load) - Exigence 5.3
self._spatial_analyzer: Optional[SpatialAnalyzer] = None
self._spatial_relations_cache: Dict[str, List[SpatialRelation]] = {}
logger.info(f"TargetResolver initialized (threshold={similarity_threshold}, spatial={use_spatial_fallback})")
# =========================================================================
# Résolution principale
# =========================================================================

View File

@@ -22,7 +22,7 @@ logger = logging.getLogger(__name__)
# Configuration Ollama (coherente avec le reste du projet)
OLLAMA_DEFAULT_URL = os.environ.get("OLLAMA_URL", "http://localhost:11434")
OLLAMA_DEFAULT_MODEL = os.environ.get("VLM_MODEL", "qwen3-vl:8b")
OLLAMA_DEFAULT_MODEL = os.environ.get("RPA_VLM_MODEL", os.environ.get("VLM_MODEL", "gemma4:e4b"))
class FieldExtractor:

View File

@@ -2,7 +2,7 @@
GPU Resource Management Module for RPA Vision V3
This module provides dynamic GPU resource allocation between ML models:
- Ollama VLM (qwen3-vl:8b) for UI classification
- Ollama VLM (gemma4:e4b par défaut, configurable via RPA_VLM_MODEL) for UI classification
- CLIP (ViT-B-32) for embedding matching
The GPUResourceManager optimizes VRAM usage by:

View File

@@ -2,7 +2,7 @@
GPU Resource Manager - Central orchestrator for GPU resource allocation
Manages dynamic allocation of GPU resources between:
- Ollama VLM (qwen3-vl:8b) - ~10.5 GB VRAM for UI classification
- Ollama VLM (gemma4:e4b par défaut) - ~10 GB VRAM for UI classification
- CLIP (ViT-B-32) - ~500 MB VRAM for embedding matching
Optimizes VRAM usage based on execution mode:
@@ -12,13 +12,14 @@ Optimizes VRAM usage based on execution mode:
"""
import asyncio
import contextlib
import logging
import threading
import time
from dataclasses import dataclass, field
from datetime import datetime
from enum import Enum
from typing import Any, Callable, Dict, List, Optional
from typing import Any, Callable, Dict, Iterator, List, Optional
logger = logging.getLogger(__name__)
@@ -53,7 +54,7 @@ class VRAMInfo:
class GPUResourceConfig:
"""Configuration for GPU resource management."""
ollama_endpoint: str = "http://localhost:11434"
vlm_model: str = "qwen3-vl:8b"
vlm_model: str = "gemma4:e4b"
clip_model: str = "ViT-B-32"
idle_timeout_seconds: int = 300 # 5 minutes
vram_threshold_for_clip_gpu_mb: int = 1024 # 1 GB
@@ -126,6 +127,12 @@ class GPUResourceManager:
# Operation queue for sequential processing
self._operation_queue: asyncio.Queue = asyncio.Queue()
self._operation_lock = asyncio.Lock()
# Lock d'inférence synchrone : sérialise les appels GPU concurrents
# (ScreenAnalyzer.analyze, UIDetector, CLIP.encode) entre
# ExecutionLoop et stream_processor pour éviter la saturation VRAM
# sur RTX 5070 (12 Go). Un seul analyze à la fois sur le GPU.
self._inference_lock = threading.Lock()
# Event callbacks
self._on_resource_changed: List[Callable[[ResourceChangedEvent], None]] = []
@@ -207,7 +214,45 @@ class GPUResourceManager:
def get_execution_mode(self) -> ExecutionMode:
"""Get the current execution mode."""
return self._execution_mode
# =========================================================================
# Inference serialization (sync)
# =========================================================================
@contextlib.contextmanager
def acquire_inference(self, timeout: Optional[float] = None) -> Iterator[bool]:
"""
Context manager synchrone pour sérialiser les inférences GPU.
Garantit qu'un seul appel d'inférence (ScreenAnalyzer.analyze,
UIDetector.detect, CLIP.encode…) tourne à la fois sur le GPU.
Évite la saturation VRAM quand ExecutionLoop et stream_processor
appellent analyze() simultanément sur une RTX 5070 (12 Go).
Args:
timeout: Délai max d'attente (secondes). None = bloquant.
Yields:
True si le lock est acquis, False en cas de timeout.
Example:
>>> with gpu_manager.acquire_inference(timeout=30.0) as acquired:
... if not acquired:
... logger.warning("GPU lock timeout")
... state = analyzer.analyze(path)
"""
if timeout is None:
self._inference_lock.acquire()
acquired = True
else:
acquired = self._inference_lock.acquire(timeout=timeout)
try:
yield acquired
finally:
if acquired:
self._inference_lock.release()
# =========================================================================
# VLM Management
# =========================================================================

View File

@@ -32,7 +32,7 @@ class OllamaManager:
def __init__(
self,
endpoint: str = "http://localhost:11434",
model: str = "qwen3-vl:8b",
model: str = "gemma4:e4b",
default_keep_alive: str = "5m"
):
"""

View File

@@ -209,6 +209,7 @@ class GraphBuilder:
workflow_name: Optional[str] = None,
precomputed_states: Optional[List["ScreenState"]] = None,
precomputed_embeddings: Optional[List] = None,
sequential: bool = False,
) -> Workflow:
"""
Construire un Workflow complet depuis une RawSession.
@@ -216,7 +217,7 @@ class GraphBuilder:
Processus:
1. Créer ScreenStates depuis screenshots (ou utiliser precomputed_states)
2. Calculer embeddings pour chaque état (ou réutiliser precomputed_embeddings)
3. Détecter patterns via clustering
3. Détecter patterns via clustering (ou mode séquentiel)
4. Construire nodes depuis clusters
5. Construire edges depuis transitions
@@ -228,6 +229,10 @@ class GraphBuilder:
precomputed_embeddings: Embeddings déjà calculés (streaming).
Si fourni et de la bonne longueur (= len(screen_states)),
saute l'étape 2 (pas de recalcul CLIP).
sequential: Si True, crée un node par état d'écran (pas de
clustering DBSCAN). Approprié pour les enregistrements
single-pass d'un workflow — chaque screenshot est une étape
distincte avec ses actions associées.
Returns:
Workflow construit avec nodes et edges
@@ -242,6 +247,7 @@ class GraphBuilder:
f"Building workflow from session {session.session_id} "
f"with {len(precomputed_states or session.screenshots)} "
f"{'precomputed states' if precomputed_states else 'screenshots'}"
f"{' (mode séquentiel)' if sequential else ''}"
)
# Étape 1: Créer ScreenStates (ou réutiliser ceux pré-calculés)
@@ -266,16 +272,28 @@ class GraphBuilder:
embeddings = self._compute_embeddings(screen_states)
logger.debug(f"Computed {len(embeddings)} embeddings")
# Étape 3: Détecter patterns
clusters = self._detect_patterns(embeddings, screen_states)
logger.info(f"Detected {len(clusters)} patterns")
# Étape 3: Détecter patterns ou mode séquentiel
if sequential:
# Mode séquentiel : chaque état d'écran est un node distinct.
# Pas de clustering — essentiel pour les enregistrements single-pass
# où l'on veut reproduire fidèlement la séquence des actions.
clusters = {i: [i] for i in range(len(screen_states))}
logger.info(
f"Mode séquentiel: {len(clusters)} nodes (1 par état)"
)
else:
clusters = self._detect_patterns(embeddings, screen_states)
logger.info(f"Detected {len(clusters)} patterns")
# Étape 4: Construire nodes
nodes = self._build_nodes(clusters, screen_states, embeddings)
logger.info(f"Built {len(nodes)} workflow nodes")
# Étape 5: Construire edges (passer les embeddings pour éviter recalcul)
edges = self._build_edges(nodes, screen_states, session, embeddings=embeddings)
edges = self._build_edges(
nodes, screen_states, session, embeddings=embeddings,
sequential=sequential,
)
logger.info(f"Built {len(edges)} workflow edges")
# Créer Workflow
@@ -937,12 +955,14 @@ class GraphBuilder:
screen_states: List[ScreenState],
session: RawSession,
embeddings: Optional[List[np.ndarray]] = None,
sequential: bool = False,
) -> List[WorkflowEdge]:
"""
Construire WorkflowEdges depuis les transitions observées.
Algorithme:
1. Mapper chaque ScreenState vers son node (via embedding similarity)
En mode séquentiel, le mapping est direct (state i → node i).
2. Identifier les transitions (state_i -> state_j où node change)
3. Extraire l'action depuis l'événement entre les deux états
4. Créer WorkflowEdge avec action, pré-conditions et post-conditions
@@ -960,6 +980,7 @@ class GraphBuilder:
screen_states: ScreenStates
session: Session brute (pour événements)
embeddings: Embeddings pré-calculés (évite un recalcul dans _map_states_to_nodes)
sequential: Mode séquentiel — chaque paire consécutive = transition
Returns:
Liste de WorkflowEdges
@@ -975,7 +996,19 @@ class GraphBuilder:
node_by_id = {node.node_id: node for node in nodes}
# Étape 1: Mapper chaque état vers son node
state_to_node = self._map_states_to_nodes(screen_states, nodes, embeddings=embeddings)
if sequential:
# Mode séquentiel : mapping direct state[i] → node[i]
state_to_node = {}
for i, state in enumerate(screen_states):
if i < len(nodes):
state_to_node[state.screen_state_id] = nodes[i].node_id
logger.debug(
f"Mode séquentiel: {len(state_to_node)} states mappés directement"
)
else:
state_to_node = self._map_states_to_nodes(
screen_states, nodes, embeddings=embeddings
)
# Étape 2: Récupérer la résolution d'écran pour normaliser les coordonnées
screen_env = session.environment.get("screen", {})
@@ -989,8 +1022,11 @@ class GraphBuilder:
current_node_id = state_to_node.get(current_state.screen_state_id)
next_node_id = state_to_node.get(next_state.screen_state_id)
# Si les deux états sont dans des nodes différents, c'est une transition
if current_node_id and next_node_id and current_node_id != next_node_id:
# En mode séquentiel, chaque paire consécutive est une transition
# En mode clustering, uniquement si les nodes sont différents
if current_node_id and next_node_id and (
sequential or current_node_id != next_node_id
):
# Trouver TOUS les événements entre les deux états
transition_events = self._find_transition_events(
current_state, next_state, session.events
@@ -1094,6 +1130,32 @@ class GraphBuilder:
return state_to_node
def _get_state_time(self, state: ScreenState, fallback: float = 0) -> float:
"""Extraire le timestamp d'un ScreenState.
Priorité :
1. metadata['event_time'] (set par _create_screen_states)
2. metadata['shot_timestamp'] (set par le reprocessing)
3. state.timestamp converti en epoch si c'est un datetime
4. fallback
Note : event_time peut être 0.0 (timestamps relatifs), donc on
vérifie `is not None` et non `> 0`.
"""
if state.metadata:
et = state.metadata.get("event_time")
if et is not None:
return float(et)
st = state.metadata.get("shot_timestamp")
if st is not None:
return float(st)
if state.timestamp:
try:
return state.timestamp.timestamp()
except (AttributeError, OSError):
pass
return fallback
def _find_transition_events(
self,
current_state: ScreenState,
@@ -1108,6 +1170,9 @@ class GraphBuilder:
C'est essentiel pour le replay : une transition peut nécessiter
plusieurs actions (ex: Win+R → taper "notepad" → Entrée).
Timestamps : utilise _get_state_time() qui supporte plusieurs
sources (event_time, shot_timestamp, datetime).
Args:
current_state: État source
next_state: État cible
@@ -1117,8 +1182,8 @@ class GraphBuilder:
Liste ordonnée (par timestamp) de tous les événements d'action
entre les deux états. Peut être vide.
"""
current_time = current_state.metadata.get("event_time", 0)
next_time = next_state.metadata.get("event_time", float('inf'))
current_time = self._get_state_time(current_state, fallback=0)
next_time = self._get_state_time(next_state, fallback=float('inf'))
action_events = []
for event in events:

View File

@@ -1,327 +0,0 @@
e)a, field_namg(datin_loggsanitize_fordator.valieturn r()
or_validatet_inputalidator = g""
v
"iséesnées sanit Don
Returns:
amp
chNom du ame: field_ntiser
s à saniata: Donnée d
Args:ging.
le loges pours donnéSanitise de """
-> str:
"data") me: str = nay, field_ta: An(da_loggingize_for sanita
defarsed_dat return p
")
errors)}t.uljoin(res {'; '.ed:ion failalidator(f"JSON vlidationErrise InputVa ralid:
is_vat.not resul if
")
"json_datafield_name=e, th=max_sizr, max_lengring(json_stalidate_stvalidator.vt =
resuldata)s(parsed_on.dump = js json_strtor()
put_validaet_in gidator =s
vales injectionur lontenu poider le c
# Valt")
dicng orbe strimust N data "JSOionError(putValidat raise In se:
elson_data_data = jparsed")
size}max_ze of { maximum siexceedsN data rror(f"JSOValidationEaise Input r_size:
lized) > maxlen(seria if a)
s(json_dat json.dumpalized =eri sialisée
ére sla taillrifier # Véct):
ata, di_de(jsonncsinsta elif i
t: {e}") JSON formaidror(f"InvalErdationalise InputV raie:
ror as JSONDecodeErt json. excep n_data)
loads(jsojson.= d_data parse
try:
size}")
{max_mum size of axiceeds m data exONor(f"JSrrtionEputValidaise In ra
max_size:a) >(json_datf len i
data, str):json_isinstance( if ""
" invalides
sont ess donnéSi letionError: InputValida s:
Raise
ON validéess JS Donnéeurns:
Ret s
n caractèremale exille maax_size: Tai mou dict)
string nnées JSON (: Do_data json
Args: .
nnées JSONdo Valide des "
"") -> dict:= 10000x_size: int t], man[str, dicnion_data: Uput(jsoe_json_inalidat
def ved_pathurn normaliz ret
")ath}malized_pories: {norwed directllon apath not ior(f"File ionErratlide InputVa rais ):
rslowed_di_dir in al for allowedr)d_diallowe.startswith(_obj)str(pathot any( if n)
alized_pathPath(normpath_obj = :
_dirsif allowed
i spécifiésautorisés soires répertrifier lesVé
# ")
xt}n: {file_extensio engerous filer(f"DaolationErroyVi Securit raisensions:
xtegerous_ext in danf file_e()
ix.lowerath).suffied_pnormalizxt = Path( file_e p', '.sh'}
.ph', ' '.jscr', '.vbs', '.s, '.cmd',xe', '.bat'{'.ensions = ngerous_exte dauses
angereons densies exter l Vérifi
#_path}")
{file detected:attemptl raversa t"Pathrror(fationEyViol Securitise ra"/"):
ith(path.startswd_or normalizelized_path in norma ".." ifl
rsaraveh tives de patntat les teVérifier # )
_pathle.normpath(fih = os.pathpatrmalized_ noin
ser le chem# Normali
ng")
t be a strile path mus"Fir(dationErroalise InputV raitr):
th, se_pailsinstance(ft i if no
"""
ngereux dae chemin estError: Si lionnputValidat I
aises:
R
sénormalit min validé e Che
Returns:
orisésutres ars: Répertoilowed_di al valider
n àhemie_path: C filgs:
Ar
chier.
hemin de fialide un c V"
" ":
trne) -> s No] =str]List[ional[rs: Optwed_di: str, allole_pathath_input(fifile_plidate_vae
def ized_valuresult.sanitreturn
.errors)}").join(resulte}: {'; 'field_named for {dation failf"ValinError(idatio InputValserai is_valid:
t.ul not res
if_name)
_html, fieldength, allow, max_lring(valuealidate_stidator.vval = resultor()
idatt_input_valator = ge"
valid""ue
échotionlidai la vaor: SdationErrnputVali Is:
se
Rai
nitisée sa Valeureturns:
R
p
du chamm d_name: No fiel HTML
oriser leow_html: Aut all ximale
Longueur mamax_length: r
r à valideue: Valeu val Args:
ée string.e une entranitisalide et s
V"""r:
t") -> st= "inpue: str e, field_namalsool = Fw_html: b allo
1000, ength: int =max_lvalue: str, ut(ing_inpvalidate_str
def r_instancern _validato)
retudator(alie = InputVancinstalidator_ _v one:
tance is Nor_insf _validat
itancer_insal _validatolob"
g""r
alidateuu vstance d Inturns:
Re
r.
teuida du valobaleinstance glourne l' Ret""
"or:
lidatputVa-> Inr() dato_valit_inputef geNone
d= ] putValidatoronal[Inance: Optilidator_instidateur
_va du val globalencesta
# In )
}"
_valuezedue: {saniti f"Val . "
field_name}ype} in {ation_tvioltected: {iolation dey vf"Securit rning(
ger.wa logame)
e, field_ng(valuor_logginf.sanitize_f selalue =tized_v sani""
té."ride sécuion violatg une Lo """:
ny) -> Nonevalue: A_name: str, ldier, fn_type: stolatioon(self, viati_violitylog_secur _
def _}]"
e_(data).__namntable:{typeme}[unpri{field_nareturn f"
ion:cept Except ex
ata_str
turn d re
tr)
scape(data_s html.e data_str =
dangereuxres es caractèhapper l # Éc
."
"..r[:200] + ata_stata_str = d d
0:r) > 20ata_st if len(d s
our les log taille pr la # Limite
ta)r(dastr = st data_ else:
, ':')),'s=('eparatore, s_ascii=Trunsurea, e(dat.dumps json = data_str
ct, list)): (dia,nstance(datsi if i
try:le
aila tter lg et limi en strinonvertir # C
]"
{len(data)}_}:size=a).__name_(dattypeme}[{{field_naturn f" re :
))istta, (dict, ltance(daisinsif el )}]"
lue(datave_vasensitish:{hash_e}[haield_namf"{f return
> 20:d len(data)str) ane(data, sinstanc if is
ensiblenées ss donhasher lerisé, En mode sécu # itive:
ensself.log_s not if ""
"r logging pouestisénées saniDon
Returns:
pom du chameld_name: N fi er
itis sanes àata: Donné d gs:
Ar
sécurisé.
le logging pouronnéess dnitise de Sa ""
" ) -> str:
ata"tr = "dd_name: sy, fiel: Anlf, dataging(seogze_for_lef saniti
dngs)
ors, warninitized, err sa_valid,ult(isationReslid return Va
s) == 0error= len(valid is_
itized)
, san7F]', ''\x1F\x0C\x0E-\x0B8\x0-\x0r'[\x0e.sub(= r sanitized ôle
ntrctères de cocaraoyer les # Nett
anitized).escape(s = html sanitized :
allow_html if not ire
si nécessatizer HTML# Sani
)
"SQL patternspicious Noains suntld_name} cofiepend(f"{ngs.ap warni else:
value)e,nam", field_ attemptionjectQL inlation("NoSecurity_vioog_s._l self ")
ernection pattl NoSQL injs potentiae} containd_nam{fiel(f"penderrors.ap
_mode:lf.strictse if lue):
(vaern.searchif patt ns:
atterf._nosql_prn in selte for patSQL
njections Nofier les i # Véri
")
QL pattern Suspiciousontains seld_name} c{fiappend(f"arnings. w:
else e)
, valu_nameeld, fipt"ection attem"SQL injiolation(security_vg_loself._ )
on pattern"L injectiotential SQontains p_name} c"{fieldppend(f.aors err e:
.strict_modself if alue):
rn.search(vatteif p patterns:
sql_f._eln spattern i for ons SQL
tir les injecVérifie #
x_length] value[:matized = sani ers")
th} charact{max_lengcated to _name} trunf"{fieldend(s.app warning else:
}")ax_length{mf length oimum eeds maxe} exc"{field_nam(fpend errors.ap ct_mode:
f self.stri ih:
lengtalue) > max_ if len(vueur
longVérifier la
# s)
ors, warningne, errt(False, NoonResulidati return Val tring")
t be a smusd_name} f"{fielrs.append( erro
, str):ce(valueisinstan if not
ue
d = valanitize sgs = []
nin war
errors = []"
"" alidation
vt de Résulta eturns:
R
s
our les logdu champ pNom : ld_name fie HTML
toriser le w_html: Au allo e
aximalgueur mh: Lonengt max_lder
valiue: Valeur à val:
Args
.
tèresde carac chaîne Valide une"
"" lt:
esuValidationRput") -> : str = "infield_name= False, tml: bool allow_h ,
000h: int = 1 max_lengtstr,f, value: (selring validate_st def
ERNS]
TTN_PAJECTIOlf.NOSQL_INttern in seor paE) fCASe.IGNOREttern, re(pa.compil= [rerns patteself._nosql_ RNS]
TE_PATL_INJECTION in self.SQfor patternNORECASE) re.IGtern,compile(pate. = [rerns_sql_pattf. selformance
pour pers patterns lepiler # Com
ata
ive_d.log_sensitive = configsit_sen self.log
ationinput_valid.strict_se configels not None _mode istrictct_mode if striict_mode = self.str nfig()
security_coig = get_ conf""
"g)
selon confi auto (None =strictde: Mode strict_mo
Args:
ur.datese le vali Initiali """
:
one)l] = N[boo: Optionalt_mode stric_(self,it_def __in
]
)"
\.|db\.is r"(th
\})",\s*\$.* r"(\{
meout\b)",etTil\b|\bs\(|\bevaction\s*"(funr nin)",
in|\$gt|\$lt|\$\$e|\$regex|\$n"(\$where| r [
TTERNS =CTION_PAL_INJEOSQ N n NoSQL
ctiour injengereux poatterns da # P]
"
b)\qlbsp_executes"(\
r",dshell\b)bxp_cm r"(\
)",[\'\";]r"( )\b)",
ONERRORAD|T|ONLOBSCRIP|VIPTAVASCRSCRIPT|J(\b( r" */)",
--|#|/\*|\ r"( ",
+)s*=\s*\d\AND)\s+\d+(UNION|OR|\b r"(
b)",\UTE)EXEC|EXECE|ALTER|OP|CREATDRELETE|ERT|UPDATE|Db(SELECT|INS r"(\
RNS = [N_PATTE_INJECTIOSQL
SQLnjection ereux pour irns dangtte# Pa
""teur."s utilisaeur d'entréeidatVal"" "ator:
Valids Inputclas
pass
""
ée."tectécurité déolation de s"Vi"" Error):
tValidationnError(InpuyViolatioSecurit
class pass
"
rée.""nton d'ealidatieur de v""Err "
ion):r(ExceptidationErroputValass In= []
clf.warnings sel:
None isarnings self.w ifors = []
elf.err sne:
is Nororser if self.
lf):init__(seost_def __p
r]
[sts: Listningwar[str]
istrs: L erroue: Any
ed_val sanitiz: bool
lid
is_va"""
une entrée.dation d' de valitat"Résul""lt:
ationResuclass Validaclass
dat
@_)
ame_etLogger(__ngging.g
logger = lolue
ive_vaash_sensitonfig, h_cecurityimport get_srity_config .secu
from dataclassrtpoimdataclasses
from Union, SetOptional,, List, Any, Dict import ng
from typirt Pathimpoib thlfrom pajson
import l htmortlogging
impe
import port r
imrt ospo"
im"ggées
"données loization des 7.4: Sanit
Exigence s chiers de fin des chemintioalida3: VExigence 7.
SQL/NoSQLonsti injeccontre lesion ectotence 7.2: PrExigé.
a sécuritur lteur polisatrées utiion des envalidat
Système de m
stedation Syut Vali"""
Inp