GPT1-3(GPT3/few-shot,无需finetune)
GPT1–finetune12层单向transformer预训练+精调被bert比下去了GPT2-元学习输入:加上任务描述“英翻法:This is life”输出:“C’est la vie”参数15亿在NLU:比不上bert也比不过其他大参数模型:如Turing-NLGGPT3-Language Models are Few-Shot Learnerspaper链接:https://arxiv.org/abs/2005.14165github链接:https
原创
2020-05-30 12:26:38 ·
2066 阅读 ·
0 评论