#04【chatglm】微调数据特别长,要调max source length和max target length?会截断数据?

文章讲述了在使用LoRA处理长输入文本时,如何调整maxsourcelength和maxtargetlength参数以提高模型性能。同时介绍了在一意AI公众号中获取高质量数据集、报错解决、运算加速和微调教程等服务的价值。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

​公众号每天更新5条大模型问题及解决方案

今天,在【NLP学习群】中,一位同学问如果我的问题都是input特别长的那种 在LoRA训练时 是不是得调大我的max source length和max target length?不然是不是会截断训练数据?

01 信息分析:

在微调LoRA时,遇到特别长的输入文本,确实需要调大max source length和max target length。

这两个参数分别控制输入对话历史的最大长度和生成回复的最大长度。通过增加这些参数,让模型有足够的上下文信息,以保证回复连贯性和理解用户问题。但是要注意,增加这些参数也会增加计算成本和内存需求,所以要在资源充足的情况下慎重选择。调整这些参数时,可以逐步增加并评估生成结果和性能,找到适合的平衡点。简而言之,调大max source length和max target length,让LoRA在处理长文本时表现更好!


至此!问题解决!

因为设备、目标不同,如果你的问题还没解决,可以公众号后台回复“问答3000条”进群,有更多同学帮你,也可以点公众号里的有偿1对1!

一意AI增效家

AI领域学习伴侣、大模型训练搭档、企服AI产品安全认证、专家培训咨询、企服知识图谱、数字人搭建

公众号

目前一意AI提供的价值主要在四个方面!

#1 高质量数据集

我搭建了一个数据共享交换平台,目前已收录中文对话、金融、医疗、教育、儿童故事五个领域优质数据集,还可以通过会员之间共享,工众后台:“数据集”下载。

#2 报错或问题解决

你可能像我们NLP学习群中的同学一样,遇到各种报错或问题,我每天挑选5条比较有代表性的问题及解决方法贴出来,供大家避坑;每天更新,工众后台:“问答3000条”获清单汇总。

#3 运算加速

还有同学是几年前的老爷机/笔记本,或者希望大幅提升部署/微调模型的速度,我们应用了动态技术框架,大幅提升其运算效率(约40%),节省显存资源(最低无显卡2g内存也能提升),工众后台:“加速框架”;

#4 微调训练教程

如果你还不知道该怎么微调训练模型,我系统更新了训练和微调的实战知识库,跟着一步步做,你也能把大模型的知识真正应用到实处,产生价值。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

一意AI增效家

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值