Fine-tuning de CodeT5+ con LoRA para traducción Python → C++ Device: CUDA 🟢 GPU disponible
📂 Dataset
Formato: una línea por par {"python": "...", "cpp": "..."} Si no subes nada, se usan los ejemplos bootstrap incluidos.
⚙️ Configuración del modelo
Modelo base
464
8128
120
116
0.000010.001
🤗 Publicar en HuggingFace Hub
📊 Progreso
01
Notas: • ZeroGPU (PRO) = A100 gratis por sesión • T4 Small = ~$0.60/hr, A10G Small = ~$3/hr • Configura HF_TOKEN en Settings → Variables and secrets del Space