公众号每天更新5条大模型问题及解决方案
今天,在【NLP学习群】中,一位同学问如果我的问题都是input特别长的那种 在LoRA训练时 是不是得调大我的max source length和max target length?不然是不是会截断训练数据?
01 信息分析:
在微调LoRA时,遇到特别长的输入文本,确实需要调大max source length和max target length。
这两个参数分别控制输入对话历史的最大长度和生成回复的最大长度。通过增加这些参数,让模型有足够的上下文信息,以保证回复连贯性和理解用户问题。但是要注意,增加这些参数也会增加计算成本和内存需求,所以要在资源充足的情况下慎重选择。调整这些参数时,可以逐步增加并评估生成结果和性能,找到适合的平衡点。简而言之,调大max source length和max target length,让LoRA在处理长文本时表现更好!
至此!问题解决!
因为设备、目标不同,如果你的问题还没解决,可以公众号后台回复“问答3000条”进群,有更多同学帮你,也可以点公众号里的有偿1对1!
一意AI增效家
AI领域学习伴侣、大模型训练搭档、企服AI产品安全认证、专家培训咨询、企服知识图谱、数字人搭建
公众号
目前一意AI提供的价值主要在四个方面!
#1 高质量数据集
我搭建了一个数据共享交换平台,目前已收录中文对话、金融、医疗、教育、儿童故事五个领域优质数据集,还可以通过会员之间共享,工众后台:“数据集”下载。
#2 报错或问题解决
你可能像我们NLP学习群中的同学一样,遇到各种报错或问题,我每天挑选5条比较有代表性的问题及解决方法贴出来,供大家避坑;每天更新,工众后台:“问答3000条”获清单汇总。
#3 运算加速
还有同学是几年前的老爷机/笔记本,或者希望大幅提升部署/微调模型的速度,我们应用了动态技术框架,大幅提升其运算效率(约40%),节省显存资源(最低无显卡2g内存也能提升),工众后台:“加速框架”;
#4 微调训练教程
如果你还不知道该怎么微调训练模型,我系统更新了训练和微调的实战知识库,跟着一步步做,你也能把大模型的知识真正应用到实处,产生价值。