Files
t2a-finetune/runpod

Fine-tuning pmsi-coder sur RunPod

1. Créer un pod

  • Template : RunPod PyTorch 2.4+ (CUDA 12.x)
  • GPU recommandé : A100 40GB (~1.50€/h) ou A100 80GB (~2.50€/h)
  • Disk : 50 Go minimum (modèle 12B + dataset + GGUF)
  • Volume persistant : optionnel, utile si on veut garder les checkpoints

2. Upload des fichiers

# Depuis la machine locale
rsync -avz --progress \
  runpod/ \
  root@RUNPOD_IP:/workspace/t2a-finetune/

# Ou via l'interface web RunPod (Jupyter → upload)

Les fichiers nécessaires :

  • train_runpod.py — script d'entraînement
  • setup.sh — installation des dépendances
  • data/pmsi_train.jsonl — dataset train (38 Mo)
  • data/pmsi_eval.jsonl — dataset eval (4.2 Mo)

3. Setup

cd /workspace/t2a-finetune
bash setup.sh

4. Lancer l'entraînement

python train_runpod.py --epochs 3 --export-gguf

Options :

  • --max-seq-length 2048 (défaut, vs 512 en local)
  • --batch 0 (auto-detect selon VRAM, défaut)
  • --lr 2e-4 (learning rate)
  • --lora-r 32 (rang LoRA)
  • --export-gguf (produire le .gguf pour Ollama)

5. Récupérer le GGUF

# Sur la machine locale
scp root@RUNPOD_IP:/workspace/t2a-finetune/models/pmsi-gguf/*.gguf .
scp root@RUNPOD_IP:/workspace/t2a-finetune/models/pmsi-gguf/Modelfile .

# Importer dans Ollama
ollama create pmsi-coder -f Modelfile

Estimations

GPU Batch Temps 3 epochs Coût
A100 40GB 4 ~2-3h ~4-5€
A100 80GB 8 ~1.5-2h ~4-5€
H100 80GB 8 ~1-1.5h ~4-5€