探索Transformer模型的未来发展方向
1. 代码生成与评估
在软件开发中,代码质量的评估至关重要。传统的BLEU分数在评估代码生成时存在局限性,因为程序的成功并不依赖于命名方案,只要保持一致即可。然而,BLEU分数会惩罚与参考命名有偏差的生成结果,而这种偏差实际上可能很难预测,即使是人类编码者也难以做到。
相比之下,单元测试是衡量代码质量更好、更可靠的方法。例如,OpenAI Codex模型就是通过对编码任务进行多次代码生成,并运行一组单元测试,计算通过测试的生成结果的比例来进行评估的。
为了创建Python代码自动完成功能,我们采取了以下步骤:
1. 构建适合预训练大型语言模型的自定义大规模数据集。
2. 创建能够使用该数据集有效编码Python代码的自定义分词器。
3. 借助Accelerate将所有内容整合在一起,并编写训练脚本,在多GPU基础设施上从头开始训练小型和大型版本的GPT - 2模型,代码行数不到两百行。
通过研究模型输出,我们发现它可以生成合理的代码续写,并且探讨了如何对模型进行系统评估。
2. 扩展Transformer模型
近年来,Transformer模型在自然语言处理(NLP)任务中展现出强大的能力。然而,为了进一步提升模型性能,扩展模型规模成为一个重要的研究方向。
在2019年,Richard Sutton在一篇文章中指出,从70年的人工智能研究中可以学到的最大教训是,利用计算资源的通用方法最终是最有效的。以国际象棋或围棋为例,将人类知识编码到人工智能系统中的方法最终被增加计算资源的方法所超越。
如今,Tran
超级会员免费看
订阅专栏 解锁全文
846

被折叠的 条评论
为什么被折叠?



