文献阅读:Language Models are Few-Shot Learners

GPT3是OpenAI提出的一个175B参数的自回归语言模型,通过增加规模和训练数据质量,展示出强大的无监督学习能力。文章介绍了GPT3在结构上与GPT2相似,但规模显著扩大,且采用Few-Shot学习方法提升模型效果,无需微调即可适应多种任务。尽管存在生成文本的通顺度而非内容相关性的局限,但GPT3证明了参数量的增加可带来性能提升。

1. 内容简介

这篇文献就是大名鼎鼎的GPT3的工作。

在这篇文章当中,OpenAI提出了GPT3模型,将自回归语言模型的参数量从前作GPT2的1.5B直线提升到了175B,并且同步增大了对应的训练数据的数量和质量。

最终,训练得到的GPT3模型的效果也算是轰动一时,直到现在都很难有模型可以超越。

更值得一

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值