Retour à toutes les compétences
🧬
Data & analytique

Fine-tuning Unsloth

Fine-tunez des LLMs open-weight plus vite et moins cher avec Unsloth.

4.7note
5 200 installations
mlops/training/unsloth
Max requis

À propos de cette compétence

Fine-tuning Unsloth enveloppe la lib Unsloth pour fine-tuner en LoRA/QLoRA un modèle Llama, Mistral ou Qwen sur votre propre dataset — typiquement 2 à 5 × plus rapide que le trainer HuggingFace vanilla, avec moins de VRAM. Renvoie un checkpoint mergé et des métriques d'éval. Prêt à servir via Inférence vLLM ensuite.

Ce qu'elle fait

  • Fine-tuning LoRA et QLoRA
  • 2 à 5 × plus rapide que le trainer vanilla
  • Empreinte VRAM réduite
  • Fonctionne sur un GPU grand public
  • Retourne checkpoint mergé + métriques d'éval

Cas d'usage

  • Fine-tuner un modèle 7B sur un dataset domaine dans la nuit
  • Adapter un modèle de base à un style d'écriture spécifique
  • Entraîner une tête de classif sur un backbone gelé