LLaMA-Factory 全参微调 Qwen2.5-1.5B Instruct版本

大家好,我是小S,在上一篇文章中,我们成功地使用 LLaMA-Factory 对 Qwen2.5-1.5B 模型进行全参微调,并且效果还不错,让胡言乱语的模型开始说人话了,也是稍微有点小成就感了。

那么今天,我们来演示一下 Qwen2.5-1.5B Instruct 版本的全参微调咯。

Qwen2.5-1.5B Instruct版本和Base版本的区别

演示之前,我们先聊一下Qwen2.5-1.5B Instruct版本和Base版本的区别,这里放一张我跑出来的图片(使用AI真的增加了我的幸福感):

Qwen2.5-1.5B Instruct版本是基于Qwen2.5-1.5B Base版本训练而来,所以就从Base版本开始讲解啦。

Base版本:就像一个读过很多书,懂很多知识,但是是一个"社恐",你直接问它问题,它可能都不知道怎么回答,然后就出现了上一期中胡言乱语的情况了。

Instruct版本:就像是经过专业训练的个人助理(确实是受过训练了,哈哈哈哈),能够准确理解你的意图并提供准确的回复。它不仅能领会你的需求,还能主动给出有价值的建议和补充信息。

开始全参微调

OK,那么现在开始进行全参微调,还是熟悉的配方,熟悉的流程,我们直接建立一张6卡的实例(全参微调真的太吃显卡了,论性价比还得是lora微调)。

1. 创建实例

还是打开咱公司自建的AI云平台,建立一张6卡的实例,因为以前真的是被显存不足搞的有点难受,所以现在都会选择6卡,6*24g的显存,想想都舒服。

我是真的喜欢使用最新版的东西(手机推送系统必更新的那种人!),所以这里选择的是PyTorch 2.7.0。

新建完实例后就可以看到LLaMA-Factory了:

### 部署和微调 Qwen2.5 模型教程 #### 安装依赖库 为了顺利进行模型的微调与部署,首先需要安装 `llama-factory` 及其相关依赖项。这可以通过执行如下命令完成: ```bash pip install -r requirements.txt ``` 此操作会依据项目需求自动拉取并配置必要的软件包[^1]。 #### 下载预训练模型 对于 Qwen2.5-7B-Instruct 模型而言,在正式开始调整前应当先将其下载至本地环境中。利用 ModelScope 提供的功能可以轻松实现这一点: ```python from modelscope import snapshot_download model_dir = snapshot_download('Qwen/Qwen2.5-7B-Instruct') ``` 上述代码片段展示了如何通过指定仓库地址来获取目标模型,并保存在一个自动生成的目录内[^2]。 #### 设置工作区及启动 WebUI 当一切准备就绪之后,则需切换到 LLaMA-Factory 的根目录位置,并激活图形化界面以便更直观地管理后续任务: ```bash %cd LLaMA-Factory !llamafactory-cli webui ``` 此时应该能够在浏览器中访问由 CLI 工具开启的服务页面,从而进一步开展实验活动[^3]。 #### 编写 Python 脚本以优化存储策略 考虑到大型语言模型可能占用较多磁盘空间的情况,建议预先设定好缓存文件夹的位置,防止因系统默认路径而引发潜在风险。下面给出了一种方法用于控制模型的具体存放地点: ```python from modelscope import snapshot_download model_dir = snapshot_download( 'qwen/Qwen2-7B', cache_dir='/root/autodl-tmp', revision='master' ) ``` 这段程序不仅指定了下载链接还明确了期望放置资源的目标路径以及版本号信息[^4]。 #### 数据集处理 针对特定应用场景下的语料整理同样重要。通常情况下,开发者们会选择清理原始文本资料中的噪声成分,构建高质量的小样本集合作为输入源供给给待训练网络学习使用。具体做法可参照官方文档说明或社区贡献者分享的经验贴来进行[^5]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值