大型语言模型(LLM)

重要

此功能在 Beta 版中。 工作区管理员可以从 预览 页控制对此功能的访问。 请参阅 管理 Azure Databricks 预览版

本页提供了使用无服务器 GPU 计算微调大型语言模型(LLM)的笔记本示例。 这些示例演示了各种微调方法,包括 Low-Rank 适应(LoRA)和完全监督的微调等参数高效方法。

微调 Qwen2-0.5B 模型

下面的笔记本提供有关如何使用以下命令有效地微调 Qwen2-0.5B 模型的示例:

  • 用于监督微调的转换器强化学习 (TRL)
  • 用于内存高效训练的Liger内核,结合了优化的Triton内核。
  • 用于参数高效微调的 LoRA。

Notebook

获取笔记本

微调 Llama-3.2-3B 与 Unsloth

此笔记本演示如何使用 Unsloth 库微调 Llama-3.2-3B。

Unsloth Llama

获取笔记本

视频演示

此视频详细介绍笔记本(12 分钟)。

使用 DeepSpeed 和 TRL 进行监督式微调

此笔记本演示如何使用无服务器 GPU Python API 通过具有 DeepSpeed ZeRO 阶段 3 优化的 转换器强化学习(TRL)库 运行监督式微调(SFT)。

TRL DeepSpeed

获取笔记本

使用 Axolotl 进行 LORA 微调

此笔记本演示了如何使用无服务器 GPU 的 Python API,通过 Axolotl 库对 Olmo3 7B 模型进行 LORA 微调。

Axolotl

获取笔记本