LLama Factory大模型微调之TensorBoard配置

部署运行你感兴趣的模型镜像

LLama Factory大模型微调之TensorBoard配置

一、TensorBoard概述

  1. 定义与功能:TensorBoard是TensorFlow的可视化工具套件,用于理解、调试和优化机器学习模型训练过程。它提供丰富可视化仪表盘,能直观监控微调训练中的各种指标,如损失率和准确率曲线、张量分布、模型图等。
  2. 操作手册:可参考官方文档:https://tensorflowcn.cn/tensorboard/get_started

二、在LLaMA - Factory中配置TensorBoard

  1. 安装依赖包
    • TensorBoard依赖于TensorFlow,建议先安装TensorFlow,安装命令:pip install tensorFlow
    • 单独安装TensorBoard命令:pip install tensorboard,若安装过程提示缺少包,按提示安装即可。
    • 安装完成后,可使用tensorboard --version验证是否安装成功,若输出版本号则安装完成。
  2. 添加训练参数
    • 在LLaMA - Factory中,通过添加--report_to "tensorboard"指定使用TensorBoard。
    • 使用--logging_dir指定日志路径,如--logging_dir single_lora_qwen_log,需注意该路径是启动命令的相对路径,建议使用绝对路径。
    • 将LLaMA - Factory生成的训练命令复制,添加上述两个参数到命令中。同时要注意,若原命令中--report_to参数值为none,需改为tensorboard,且整个命令中不要有重复指令数据,否则会导致输出失败 。
  3. 启动TensorBoard服务
    • 命令格式:tensorboard --logdir="日志文件夹路径" --host 服务器IP --port 端口号,如tensorboard --logdir="single_lora_qwen_log" --host 192.168.110.133 --port 6006,表示监控指定文件夹内容并展示在服务器的6006端口下。
    • 执行命令后,若没有报错,在本地电脑(与服务器互通情况下)访问http://服务器IP:端口号/#scalars,如http://192.168.110.133:6006/#scalars,即可查看模型训练的详细信息。

三、LLaMA - Factory + LORA大模型微调相关知识补充

  1. LORA原理
    • 来源于微软2021年论文《LORA: LOW - RANK ADAPTATION OF LARGE LANGUAGE MODELS》,核心思想是基准模型不变,额外引入参数矩阵(ΔW)做专属内容处理,新矩阵h = Wox + ΔWx (WO为原始权重矩阵,x为输入向量)。
    • LORA与适配器微调(Adapter Tuning)不同,Adapter Tuning在模型本身增加层次,会使模型推理路径变长;LORA保持模型完整性,引入外部参数矩阵与原模型结合输出。
    • LORA可应用于大模型微调,如GPT系列和transformer模型等过参数化模型,通过优化秩分解矩阵间接训练神经网络密集层,节省计算资源。
  2. LLaMA - Factory作用与使用
    • LLaMA - Factory是GitHub上的开源项目,可用于大模型微调,支持命令行界面(CL)、Web示例(Demo)和API调用等多种使用方式,操作简便,具体指南可在官方GitHub页面查看。
    • 在使用时,不同版本可能会有更新,使用前需关注更新点。安装部署过程包括创建Python虚拟环境、下载项目文件、安装依赖包等,对本地软硬件环境有一定要求,如CUDA至少11.6版本,推荐12.2版本 。
  3. 数据集与微调流程
    • 先使用LLaMA - Factory自带数据集进行微调,后续会讲解使用自定义数据集的方法。不同数据集详细情况可在其GitHub官网查看。
    • 微调流程包括框架安装、模型下载、数据集准备、选择参数方法点击微调,微调完成后需合并模型并二次验证。

四、答疑环节

  1. LORA与冻结参数关系:LORA本质不是通过冻结参数调节,而是引入外部权重矩阵,保持原模型完整性,与原模型结合输出;而上节课讲的冻结参数是逐层或等层冻结,在同一模型上进行操作。
  2. LORA与知识库区别:LORA是训练好的参数权重集,可类比为挂上去的知识库,但原理不同。知识库是向量库,实时可更新;LORA是用于微调的参数集。
  3. LLaMA模型与LORA应用:LLaMA模型可以用LORA方法实现微调,支持实体关系三元组提取任务。
  4. 企业微调工具选择:企业中微调可使用LLaMA - Factory开源工具,也可使用其他工具,取决于具体需求。LLaMA - Factory框架默认支持一些微调设置,若有特殊需求,如指定特定模块微调,可能需要借助其他方式。

您可能感兴趣的与本文相关的镜像

Llama Factory

Llama Factory

模型微调
LLama-Factory

LLaMA Factory 是一个简单易用且高效的大型语言模型(Large Language Model)训练与微调平台。通过 LLaMA Factory,可以在无需编写任何代码的前提下,在本地完成上百种预训练模型的微调

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值