feat: Benchmark de performance baseline - 2.62s/doc moyen, 92% dans objectif
This commit is contained in:
@@ -66,18 +66,18 @@
|
||||
|
||||
### 1.3 Mesure de la Baseline
|
||||
|
||||
- [ ] 1.3.1 Exécuter l'évaluation sur le dataset annoté
|
||||
- [-] 1.3.1 Exécuter l'évaluation sur le dataset annoté
|
||||
- [ ] 1.3.1.1 Anonymiser les 30 documents annotés avec le système actuel
|
||||
- [ ] 1.3.1.2 Exécuter l'évaluateur sur les 30 documents
|
||||
- [ ] 1.3.1.3 Générer le rapport de qualité baseline
|
||||
- [ ] 1.3.1.4 Identifier les faux négatifs critiques
|
||||
- [ ] 1.3.1.5 Identifier les faux positifs fréquents
|
||||
|
||||
- [ ] 1.3.2 Exécuter le benchmark de performance
|
||||
- [ ] 1.3.2.1 Benchmarker le système actuel sur les 30 documents
|
||||
- [ ] 1.3.2.2 Mesurer le temps de traitement moyen
|
||||
- [ ] 1.3.2.3 Mesurer l'utilisation CPU/RAM
|
||||
- [ ] 1.3.2.4 Exporter les résultats baseline
|
||||
- [x] 1.3.2 Exécuter le benchmark de performance
|
||||
- [x] 1.3.2.1 Benchmarker le système actuel sur les 30 documents
|
||||
- [x] 1.3.2.2 Mesurer le temps de traitement moyen
|
||||
- [x] 1.3.2.3 Mesurer l'utilisation CPU/RAM
|
||||
- [x] 1.3.2.4 Exporter les résultats baseline
|
||||
|
||||
- [ ] 1.3.3 Analyser les résultats baseline
|
||||
- [ ] 1.3.3.1 Analyser les types de PII manqués (faux négatifs)
|
||||
|
||||
Reference in New Issue
Block a user