Aller au contenu

Ajustement fin

Utilisez cette page pour du LoRA instruction tuning sur des exports HF LabCore ou des repos Hub compatibles. Prérequis: dépendances HF + finetune et modèle de base accessible.

Commandes

python scripts/finetune/fine_tune_instruction.py \
  --model-id outputs/hf_export \
  --dataset yahma/alpaca-cleaned \
  --dataset-split train \
  --output-dir outputs/lora_instruction \
  --config configs/presets/bpe_rope_flash/bpe_50M_rope_flash.toml \
  --max-samples 20000 \
  --epochs 1

Dépendances:

python -m pip install -e ".[torch,hf,finetune]"

Fichiers de sortie / artefacts produits

  • outputs/lora_instruction/ (adapter LoRA + fichiers tokenizer)

Notes

  • Le script charge les modèles exportés avec trust_remote_code=True.
  • Les exports BPE sont le chemin prévu pour les workflows de fine-tuning HF.

Mapping du dataset

Le script accepte plusieurs alias de champs:

  • Instruction: instruction, question, prompt
  • Input: input, context
  • Output: output, response, answer

Erreurs fréquentes

  • Dépendances HF manquantes: voir Torch not installed.
  • OOM en fine-tuning: voir Out of memory.
  • Incompatibilité modèle/tokenizer de base: vérifier la config et la compatibilité modèle avant lancement.

Note

Le fine-tuning utilise la stack HF Trainer et écrit dans outputs/ plutôt que dans checkpoints/.

Suite / liens