10行代码让大模型数学提升20%,“野路子”研究谷歌也测上了,主要作者全靠自学成才...

克雷西 发自 凹非寺
量子位 | 公众号 QbitAI

只要不到10行代码,就能让大模型数学能力(GSM8k)提升20%!

几名独立学者提出了大模型采样的改进方案,引起了开源社区的关注。

目前该方法已在Mistral-7B上取得成效,在Llama3-70B上的测试也正在进行。

95d63f938c00bb62c20760f4efcf800d.png

这种方法叫做最小p采样(min-p sampling),目的是平衡生成文本的连贯性和多样性

简单说就是让模型在不同场合发挥不同的特性,例如在事实问题上保持性能稳定,在写作等场景中又能发挥创意。

目前该方法已在Mistral-7B上取得成效,在Llama-70B上的测试也即将进行。

1382f48f5384a803e2a6519355981294.png

在论文中作者提到,该方法已经获得了开源社区的广泛应用。

642c3f9c8bd8f0a398fbe1b760d2ea9e.png

同时作者还透露,Anthropic和谷歌等闭源模型厂商也已经或正在针对min-p进行测试。

5ad873d725e06ac1ee04fe4a2e59bdbf.png

消息也得到了谷歌方面的确认,从OpenAI跳槽到谷歌的开发者社区负责人Logan Kilpatrick已经回复说“On it”(在做了)。

b1b447cc16ef598cafc642fa5cedc768.png

微软Copilot的研究人员Abram Jackson看了后表示,这是他看到的首个有关推理过程token采样的改进,未来还有很大进步空间。

82312f28311b72cceb76d11bea47464e.png

值得一提的是,这项受到广泛关注的研究,主要作者Minh Nhat Nguyen根本没系统学过CS,而是靠自学成才

在一家名为Apart Research的AI安全研究机构帮助下,Minh和团队其他成员一起完成了该项目。

64227ba6ca05aa405c19366ee3593d6e.png

动态调整抽样阈值

min-p是一种动态截断抽样方法,其核心是根据每一步token分布的最大概率,来缩放最小概率阈值

这样做的目的,主要在于平衡生成文本的连贯性和多样性,特别是在temperature较高的条件下。

具体来说,min-p引入了一个基础概率阈值p_base,表示进入采样池的最低概率要求。

在每一步生成token时,min-p会将p_base与当前概率分布中最大的token概率p_max相乘,得到一个缩放后的绝对阈值p_scaled。

只有概率大于等于p_scaled的token,才能够进入采样池。

当模型对某个token的预测概率非常高(即p_max很大)时,p_scaled的值也会很高,导致采样池大幅缩小,绝大多数低概率token被过滤,只留下少数高把握的选择,确保了输出的连贯性;

70ee0704519fe2c6100c22aa50073401.png

而当模型对所有token的预测概率都比较接近(p_max较低)时,p_scaled的值也会相应变低,放宽了对采样池的要求,纳入更多中等概率的token,给予模型更多发挥空间,生成更加多样化的内容。

57bcfe3e63480315f2c83cb8da49068a.png

在确定采样池后,min-p会根据temperature对token概率分布进行缩放。

它将token的对数概率除以一个温度参数τ,并进行归一化后,就得到了temperature缩放后的概率分布。

大于1的τ值会使概率分布更加平缓,增加低概率token被选中的机会;

τ小于1时则会使分布更加尖锐,强化高概率token的优势。

最后,min-p从缩放后的采样池中,按照调整后的概率分布,随机抽取下一个token。

稳定性和创意,“我全都要”

min-p方法的效果究竟如何呢?作者使用了Mistral-7B作为基础模型进行了测试,我们来分场景看一下结果。

在推理任务中,作者采用了GPQA数据集。当temperature为1时,可以看到min-p相比于过去的top-p显现出了微小的优势。

随着temperature增加,GPQA得分整体上呈现出了下降趋势,但可以观察到min-p的下降明显比top-p更慢。

直到temperature达到3时min-p的下降趋势才变得明显,此时top-p的得分已接近0。

也就是说,相比于top-p,min-p在推理任务中更好地保持了所需要的稳定性

f1c046fcb471f7aa42041ad9f240b506.png

同样需要保持稳定性能的还有数学类任务,这里作者使用了GSM8K数据集进行了测试。

结果min-p所对应的分数随temperature的下降比在GPQA中更快,但仍然缓于top-p方式。

8e15355c713571f871b32fd6e8cce2f3.png

第三类任务是创意写作,这时对稳定性的要求就不是那么高了,而是需要模型发挥更多的创意。

这项测试使用AlpacaEval数据集完成,实验数据是从开源社区的一名独立评估者那里获得的。

实验结果显示,在temperature=1.5、min-p=0.1的设置下,min-p的性能尤其突出,可生成top-p方法难以生成的创意写作内容。

在该参数下,min-p方法得到的文本获得了58.12%的人类评判优选率,远高于其他方法在类似设置下的表现。

325cca7edee3fd3bb7cd095c4638e974.png

论文地址:
https://arxiv.org/abs/2407.01082
GitHub:
https://github.com/menhguin/minp_paper/
参考链接:
https://x.com/menhguin/status/1826132708508213629

量子位年度AI主题策划正在征集中!

欢迎投稿专题 一千零一个AI应365行AI落地方案

或与我们分享你在寻找的AI产品,或发现的AI新动向

0ff542f3daba90d847171d5d88c89db0.png

点这里👇关注我,记得标星哦~

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值