Ajustement fin
Utilisez cette page pour du LoRA instruction tuning sur des exports HF LabCore ou des repos Hub compatibles. Prérequis: dépendances HF + finetune et modèle de base accessible.
Commandes
python scripts/finetune/fine_tune_instruction.py \
--model-id outputs/hf_export \
--dataset yahma/alpaca-cleaned \
--dataset-split train \
--output-dir outputs/lora_instruction \
--config configs/presets/bpe_rope_flash/bpe_50M_rope_flash.toml \
--max-samples 20000 \
--epochs 1
Dépendances:
Fichiers de sortie / artefacts produits
outputs/lora_instruction/(adapter LoRA + fichiers tokenizer)
Notes
- Le script charge les modèles exportés avec
trust_remote_code=True. - Les exports BPE sont le chemin prévu pour les workflows de fine-tuning HF.
Mapping du dataset
Le script accepte plusieurs alias de champs:
- Instruction:
instruction,question,prompt - Input:
input,context - Output:
output,response,answer
Erreurs fréquentes
- Dépendances HF manquantes: voir Torch not installed.
- OOM en fine-tuning: voir Out of memory.
- Incompatibilité modèle/tokenizer de base: vérifier la config et la compatibilité modèle avant lancement.
Note
Le fine-tuning utilise la stack HF Trainer et écrit dans outputs/ plutôt que dans checkpoints/.