#04【chatglm】微调数据特别长,要调max source length和max target length?会截断数据?

文章讲述了在使用LoRA处理长输入文本时,如何调整maxsourcelength和maxtargetlength参数以提高模型性能。同时介绍了在一意AI公众号中获取高质量数据集、报错解决、运算加速和微调教程等服务的价值。

​公众号每天更新5条大模型问题及解决方案

今天,在【NLP学习群】中,一位同学问如果我的问题都是input特别长的那种 在LoRA训练时 是不是得调大我的max source length和max target length?不然是不是会截断训练数据?

01 信息分析:

在微调LoRA时,遇到特别长的输入文本,确实需要调大max source length和max target length。

这两个参数分别控制输入对话历史的最大长度和生成回复的最大长度。通过增加这些参数,让模型有足够的上下文信息,以保证回复连贯性和理解用户问题。但是要注意,增加这些参数也会增加计算成本和内存需求,所以要在资源充足的情况下慎重选择。调整这些参数时,可以逐步增加并评估生成结果和性能,找到适合的平衡点。简而言之,调大max source length和max target length,让LoRA在处理长文本时表现更好!


至此!问题解决!

因为设备、目标不同,如果你的问题还没解决,可以公众号后台回复“问答3000条”进群,有更多同学帮你,也可以点公众号里的有偿1对1!

一意AI增效家

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

一意AI增效家

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值