Files
rpa_vision_v3/docs/demo/FAQ_EXPERTS_RPA.md
Dom 4f61741420
Some checks failed
security-audit / Bandit (scan statique) (push) Successful in 14s
security-audit / pip-audit (CVE dépendances) (push) Successful in 10s
security-audit / Scan secrets (grep) (push) Successful in 8s
tests / Lint (ruff + black) (push) Successful in 13s
tests / Tests unitaires (sans GPU) (push) Failing after 14s
tests / Tests sécurité (critique) (push) Has been skipped
feat: journée 17 avril — tests E2E validés, dashboard fleet+audit, VWB bridge, cleaner C2
Pipeline E2E complet validé :
  Capture VM → streaming → serveur → cleaner → replay → audit trail
  Mode apprentissage supervisé fonctionne (Léa échoue → humain → reprise)

Dashboard :
  - Cleanup 14→10 onglets (RCE supprimée)
  - Fleet : enregistrer/révoquer agents, tokens, ZIP pré-configuré téléchargeable
  - Audit trail MVP (/audit) : filtres, tableau, export CSV, conformité AI Act/RGPD
  - Formulaire Fleet simplifié (nom + email, machine_id auto)

VWB bridge Léa→VWB :
  - Compound décomposés en N steps (saisie + raccourci visibles)
  - Layout serpentin 3 colonnes (plus colonne verticale)
  - Badge OS 🪟/🐧, filtre OS retiré (admin Linux voit Windows)
  - Fix import SQLite readonly

Cleaner intelligent :
  - Descriptions lisibles (UIA/C2) + détection doublons
  - Logique C2 : UIElement identifié = jamais parasite
  - Patterns parasites resserrés
  - Message Léa : "Je n'y arrive pas, montrez-moi comment faire"

Config agent (INC-1 à INC-7) :
  - SERVER_URL + SERVER_BASE unifiés
  - RPA_OLLAMA_HOST séparé
  - allow_redirects=False sur POST
  - Middleware réécriture URL serveur

CI Gitea : fix token + Flask-SocketIO + ruff propre
Fleet endpoints : /agents/enroll|uninstall|fleet + agent_registry SQLite
Backup : script quotidien workflows.db + audit

Co-Authored-By: Claude Opus 4.6 (1M context) <noreply@anthropic.com>
2026-04-17 17:46:40 +02:00

290 lines
13 KiB
Markdown

# FAQ — Questions des experts RPA (démo 26 avril 2026)
**Audience** : DG/DSI de groupements de cliniques, dont **plusieurs ont déjà
déployé UiPath, Automation Anywhere ou Power Automate**. Ils connaissent les
limites du RPA classique. Ils vont challenger.
**Posture de réponse** : factuelle, posée, ni défensive ni bravache. Quand
on n'a pas, on le dit. On finit toujours par ramener la conversation sur
**le cas métier urgences et le ROI chiffré**.
---
## Bloc TECHNO
### Q1. Pourquoi pas UiPath / Automation Anywhere / Power Automate ?
Les RPA classiques se cassent dès que l'UI change d'un pixel ou qu'on passe
par Citrix. Ils fonctionnent bien sur des processus répétitifs ultra-stables
(compta, RH), mal sur des métiers visuels variables comme les urgences.
Léa ne lit pas le DOM ni l'accessibility tree : elle **voit l'écran comme
un humain** et s'adapte quand l'UI bouge. On n'est pas un concurrent
généraliste d'UiPath : on est le bon outil pour **un métier précis où
UiPath échoue**.
### Q2. Comment Léa gère Citrix / RDP / VDI ?
C'est notre terrain principal, pas un cas dégradé. Léa capture l'écran
(image), comprend la structure via un modèle de vision, et interagit
via clavier/souris standard. Pas d'API, pas de tree, pas de crochet.
Citrix ou natif, c'est transparent. En contrepartie, la latence est
légèrement plus élevée (100-300 ms par action vs 50 ms en natif) —
acceptable pour du codage PMSI, pas pour du trading.
### Q3. Vous utilisez quel VLM ? Vos modèles sont open source ?
100 % modèles open source, tournant en local. Le stack actuel combine :
Qwen2.5-VL (grounding visuel), UI-TARS-1.5-7B (action sur UI), et des
prompts métier spécifiques par domaine (PMSI urgences, facturation, etc.).
Rien chez OpenAI, rien chez Anthropic au runtime client. Infrastructure
minimum pour un pilote : un serveur GPU (RTX 5070 ou équivalent) sur site
ou dans le cloud souverain.
### Q4. Que se passe-t-il quand l'UI change (mise à jour du DPI) ?
C'est la vraie question. Trois niveaux de réponse :
1. **Petit changement** (position d'un bouton, couleur) : Léa s'adapte
toute seule, parce qu'elle reconnaît sémantiquement "bouton Valider",
pas "bouton en x=420 y=180".
2. **Gros changement** (refonte UI) : Léa **détecte qu'elle ne comprend
plus**, se met en pause, et demande à l'humain. Pas de casse silencieuse.
3. **Réapprentissage** : la TIM refait le workflow une fois en mode
"apprends-moi", Léa se remet à jour. Temps typique : 15-30 minutes.
### Q5. Vous supportez quels OS ?
Agent client : **Windows 10/11** (cible principale, c'est ce que les
cliniques ont). Serveur : **Linux** (Ubuntu 22.04+). macOS et Linux
côté client ne sont pas prioritaires — la demande est marginale en milieu
hospitalier.
### Q6. Que faites-vous contre le drift d'écran entre deux sessions (taille de fenêtre, thème Windows) ?
Trois couches : (1) capture normalisée en résolution logique, (2)
invariance aux thèmes sombres/clairs via apprentissage multi-contextes,
(3) mémoire des cibles par signature sémantique plutôt que par coordonnées.
En pratique, sur nos tests chez Resurgences, le drift normal (thème,
multi-écran) ne casse pas l'exécution.
### Q7. Qu'est-ce qui se passe si le médecin ou la TIM tape au clavier pendant que Léa exécute ?
Détection d'interférence humaine : Léa met en pause dès qu'elle détecte une
activité clavier/souris non-Léa sur son fil d'exécution. L'humain reprend
la main, Léa reprend quand il a fini. Pas de conflit, pas de frappe
mélangée.
---
## Bloc SCALING / ROBUSTESSE
### Q8. Combien de postes Léa peut-on déployer en parallèle ?
Sur un serveur GPU mid-range (RTX 5070), on vise **10-20 postes en
parallèle** pour des workflows typiques (pas de vidéo temps réel 4K). Au-
delà, on scale horizontalement (plusieurs serveurs) ou on passe sur un GPU
plus costaud (A100, DGX). L'architecture est modulaire, le goulet
d'étranglement est le GPU, pas le code.
### Q9. Latence serveur ?
Action simple (clic, frappe) : 200-400 ms côté Léa (capture → inférence →
commande). Action complexe (compréhension d'écran + décision) : 1-3 s.
Pour du codage PMSI, ça passe largement. Pour du trading haute fréquence,
ce n'est pas le bon produit.
### Q10. Que fait Léa si le serveur est down ?
L'agent client bascule en **buffer local** : il continue à capturer ce que
l'utilisateur fait, stocke les sessions, et les envoie quand le serveur
revient. Pas de perte de données. L'exécution autonome, elle, se met en
pause — pas de fallback aveugle.
### Q11. Reprise après erreur ? Replay automatique ?
Trois niveaux :
1. **Reprise automatique** si l'erreur est transiente (popup, dialogue
inattendu reconnu par Léa).
2. **Pause + demande à l'humain** si Léa ne comprend pas ce qu'elle voit
("je vois un écran que je ne connais pas, merci de m'aider"). C'est la
règle : un échec devient un apprentissage, pas un crash.
3. **Replay à froid** du workflow complet depuis l'observation humaine
initiale, si on veut tout rejouer.
### Q12. Et si Léa fait une erreur qui a un impact réel (un mauvais code envoyé au PMSI) ?
Trois garde-fous : (1) **mode strict** où Léa ne valide jamais un envoi
final — toujours confirmation humaine, (2) **seuil de confidence** configurable
par workflow, (3) **log d'audit complet** (toutes les décisions Léa sont
tracées, replay vidéo possible). En 100 % autonomous, Léa agit seulement
sur des workflows **validés plusieurs fois** et avec un seuil de confidence
haut. Pour les urgences pilote, on démarre en mode "assistante" (copilote),
pas en 100 % autonome.
---
## Bloc SÉCURITÉ / CONFORMITÉ
### Q13. RGPD, AI Act, HDS — comment vous vous positionnez ?
- **RGPD** : 100 % local, aucune donnée patient ne sort du SI. L'agent
capture l'écran, traite sur un serveur **sur site ou en cloud souverain**
(3DS Outscale, OVH HDS). Pas de routing cloud US.
- **AI Act** : Léa est système IA au sens de l'article 50 (cf. LISEZMOI),
flag d'information utilisateur intégré. Classification "risque limité" en
copilote, "risque élevé" si autonome — documentation dans
`docs/RAPPORT_CONFORMITE_AI_ACT.md`.
- **HDS** : l'hébergement serveur doit être HDS-certifié. On accompagne le
pilote sur le choix de l'hébergeur si besoin.
### Q14. "100 % local", ça veut dire quoi concrètement ?
Deux niveaux d'installation possibles :
1. **Tout sur site** : serveur GPU dans le SI de la clinique, zéro sortie
réseau. Cas le plus sûr, le plus cher (hardware).
2. **Serveur en cloud souverain HDS** : données chiffrées en transit et au
repos, clés maîtrisées par le client. Aucun transit hors UE.
Dans les deux cas : **aucun appel cloud US**, aucun LLM propriétaire
externe (pas de ChatGPT, pas de Claude, pas de Gemini).
### Q15. Logs d'audit, traçabilité des décisions IA ?
Chaque décision de Léa (ce qu'elle a vu, ce qu'elle a décidé, sur quel
élément elle a cliqué) est loggée : screenshot avant/après, prompt soumis
au VLM, réponse, action exécutée. Rétention paramétrable (**minimum 180
jours** en config par défaut pour conformité). Replay vidéo d'un workflow
possible pour audit DIM ou ARS.
### Q16. Où est stocké le modèle ? Il apprend sur nos données ? Qui les possède ?
Modèles **open source** stockés sur le serveur client (poids Qwen, UI-TARS,
etc.). **Aucun apprentissage en ligne sur les données patient** par défaut —
on ne renvoie rien aux éditeurs des modèles. Un mode "fine-tuning local"
existe pour spécialiser Léa sur le vocabulaire d'une clinique, **exécuté
sur le serveur du client, poids gardés par le client**. Le client est
propriétaire de ses données ET de ses fine-tunings.
### Q17. Qui accède aux données chez vous ? Vos équipes ?
En prod chez un client : personne chez AIVANOV n'accède aux données sans
autorisation écrite. En pilote : un accès de debug peut être demandé avec
procédure documentée (lecture seule, logs anonymisés). **Les credentials
métier (compte DPI de la TIM) sont stockés dans un vault chiffré
Fernet/AES local** — jamais en clair côté serveur, jamais chez nous.
---
## Bloc BUSINESS
### Q18. Licensing ? C'est combien ?
**Modèle économique aligné sur la valeur**. Les postes utilisateurs ne
sont qu'une étape (Shadow puis Copilot) : une fois Léa entraînée, elle
tourne **en autonome** sur infrastructure dédiée — facturer "par poste"
reviendrait à facturer la phase d'apprentissage, pas la valeur créée.
**Notre proposition de valeur** : vous ne payez significativement **que
sur la valeur démontrée** (gains PMSI récupérés, mesurés via audit trail).
Plusieurs modèles possibles selon votre contexte (forfait établissement,
% de la valeur récupérée, volume traité, hybride) — **on cale ensemble
le modèle qui vous convient en one-to-one**.
Pour les **premiers pilotes** : accompagnement gratuit 2 mois
(infrastructure + setup + apprentissage), puis bascule sur le modèle
pérenne choisi ensemble.
*→ Rediriger vers one-to-one à la pause si question poussée — ne pas
annoncer un chiffre précis en plénière.*
### Q19. Support, maintenance, SLA ?
Pilote : accompagnement direct Dom + Amina, réponse < 4 h ouvrées.
Production : SLA à contractualiser (8 h ouvrées standard, 2 h premium).
Maintenance : mises à jour modèles trimestrielles, correctifs sur demande.
### Q20. Qui êtes-vous, votre équipe, vos références ?
AIVANOV, SAS française, fondée par Amina ETTORCHI (présidente,
ex-TIM/DIM, 15 ans d'expérience PMSI). Équipe technique lead Dom
(architecture vision + RPA). Projet Léa en développement depuis 2025,
version 1.0 déployable depuis avril 2026. **Premier pilote client à
démarrer** — pas de référence client public aujourd'hui, on est
transparent sur ce point et c'est une **opportunité pour les premiers
cliniques** (conditions pilote spécifiques).
### Q21. Combien de temps pour un pilote ? Pour une prod ?
- **Pilote** : 6-8 semaines (semaine 1-2 cadrage + capture workflow,
semaine 3-4 test en double avec la TIM, semaine 5-8 mesure ROI).
- **Mise en prod** : 2-3 mois après pilote validé, selon intégration SI
et HDS.
- **Rampe multi-clinique** : 1 clinique par mois en rythme raisonnable.
### Q22. Qu'est-ce qui n'est pas encore prêt, honnêtement ?
- Mode **autonomous 100 % non-supervisé** : en développement, pas
production-ready. En pilote, on démarre en **copilote** (Léa propose,
la TIM valide).
- **Fiche d'identité par DPI** : Resurgences et quelques autres sont
bien testés, les outils plus rares demandent une phase d'apprentissage
dédiée.
- **Support macOS / Linux côté client** : pas prioritaire, à la demande.
- **Multilingue** : français uniquement aujourd'hui. Anglais prévu S2 2026.
---
## Bloc URGENCES (spécifique)
### Q23. Pourquoi les urgences d'abord ? Pourquoi pas la facturation ou la pharmacie ?
Deux raisons : (1) **c'est là qu'Amina a prouvé 150 k€/mois de récupération
manuelle** — on bâtit sur une preuve terrain chiffrée. (2) C'est un
domaine à **forte douleur** (TIM sous pression, codage fait vite, DPI
variés). Le ROI est évident, la reproductibilité est haute. Facturation
et pharmacie suivront, après un premier carton aux urgences.
### Q24. Quels DPI urgences supportés aujourd'hui ?
**Testés et opérationnels** : Resurgences (Softway). **En cours de
validation** : Urqual, DxCare, CristalNet Urgences, Hôpital Manager.
**Non testés aujourd'hui** : Osiris, outils métier propriétaires
d'établissement. Le coût d'ajout d'un nouveau DPI est faible (5-10 jours
de capture/apprentissage TIM) grâce à l'approche 100 % vision.
### Q25. Quel ROI moyen sur les urgences ?
Borne basse prouvée (sans IA, Amina en manuel) : **150 k€/mois/clinique**.
Avec Léa, on **scale cette méthode sur des volumes que la TIM ne pouvait
pas traiter manuellement** — on couvre 100 % des dossiers au lieu de 10-20 %.
Projection prudente : **+30 à +70 % vs manuel**, soit **200-250 k€/mois/
clinique potentiel** pour des groupements avec volumes urgences élevés.
**À confirmer sur pilote.**
### Q26. Est-ce que Léa remplace la TIM ?
Non. Léa fait le travail répétitif à haute valeur/faible complexité (les
80 % des dossiers "évidents") et **libère la TIM pour les 20 % de cas
complexes** (dossiers longs, arbitrages médicaux, contrôle qualité). Le
discours pour la TIM : "on t'enlève les corvées, tu gardes le cœur du
métier". En pratique, on gagne du temps qualifié et on réduit le turn-over
TIM (douleur RH forte dans la plupart des cliniques).
### Q27. Comment vous convainquez un médecin urgentiste que Léa sait coder mieux que lui le soir à 23 h fatigué ?
On ne le convainc pas, **on lui montre sur son dossier d'hier soir** ce
qu'il a oublié, avec la justification ligne par ligne. L'adhésion médecin
se joue en démo, pas en réunion. Et ce n'est pas "Léa contre le médecin",
c'est "Léa filet de sécurité pour le médecin fatigué à 23 h".
---
## Ce qu'on ne dit JAMAIS devant cette audience
- "On n'a pas encore..." (à transformer en "c'est sur la roadmap S2 2026").
- "Notre produit est un prototype" (il est en v1.0, livrable).
- "Ça ne marche pas toujours" (on dit "il y a un mode supervisé pour les
cas où Léa doute").
- "UiPath c'est nul" (on dit "UiPath est excellent sur d'autres terrains,
nous on est spécialisés urgences").
- "On est une startup de 2 personnes" (on dit "une équipe ramassée, agile,
avec 15 ans d'expertise métier en lead").