Qwen3 LLMs 不仅能力强大,而且易于运行。部分模型体积足够小,可在单张 GPU 上进行微调或推理。
Qwen 团队发布了两类模型:Qwen3 和 Qwen3-Base。命名方式可能与您习惯的有所不同。例如 Llama 模型中,无后缀名称(如 Llama 3.1 8B)指代基础预训练版本,而 Llama 3.1 8B Instruct 是经过后训练的版本。Qwen3 则恰好相反:
- Qwen3 是后训练模型(经过对话/指令调优+推理能力训练)。
- Qwen3-Base 是原始预训练模型,未经过对齐或指令调优处理。
那么,如果你想用自己的数据微调其中某个模型,该如何选择呢?
本文将分别对 Qwen3-14B 和 Qwen3-14B-Base 进行微调,然后比较推理时开启/关闭推理功能的情况下两个模型的表现差异。微调过程使用 Unsloth 在单块 GPU 上完成。我还会展示运行所需显存的具体要求。
微调 Qwen3 的 GPU 需求
使用多块 80GB 显存的 GPU