Export et déploiement
Utilisez cette page pour packager un checkpoint local vers Hugging Face puis, optionnellement, vers GGUF.
Prérequis: checkpoint valide (checkpoints/ckpt_last.pt) et métadonnées correspondantes (data/processed/meta.json ou data/meta.json).
Export HF vs export GGUF
- L'export HF crée des artefacts compatibles Transformers pour les workflows Hugging Face.
- La conversion GGUF crée des fichiers quantifiés pour les runtimes
llama.cpp.
Commandes
Exporter un checkpoint local au format HF:
python scripts/export/export_hf.py \
--checkpoint checkpoints/ckpt_last.pt \
--meta data/processed/meta.json \
--output-dir outputs/hf_export
Pousser le dossier exporté vers HF Hub:
python scripts/export/export_hf.py \
--checkpoint checkpoints/ckpt_last.pt \
--meta data/processed/meta.json \
--output-dir outputs/hf_export \
--push \
--repo-id GhostPunishR/labcore-llm-50M
Convertir l'export HF en GGUF et quantifier:
python scripts/export/quantize_gguf.py \
--hf-dir outputs/hf_export \
--llama-cpp-dir third_party/llama.cpp \
--output-dir outputs/gguf \
--quant-type Q4_K_M
Fichiers de sortie / artefacts produits
outputs/hf_export/:
model.safetensorsconfig.jsonlabcore_tokenizer.jsontokenizer_config.jsonspecial_tokens_map.jsonconfiguration_labcore.pymodeling_labcore.pytokenization_labcore.pyREADME.md
Chargez le dossier exporté avec Transformers en activant trust_remote_code=True.
outputs/gguf/:
labcore-50m-f16.gguflabcore-50m-q4_k_m.gguf(ouq5_k_m/ les deux avec--quant-type all)
Warning
La conversion GGUF exige un checkout llama.cpp valide avec script de conversion et binaire de quantization disponibles.
Erreurs fréquentes
- Mauvais mapping des métadonnées (
txtvsbin): voir Meta path mismatch. - Dépendances
huggingface_hub/safetensorsmanquantes: voir Torch not installed. - Outils
llama.cppmanquants: voir Windows path and policy issues.