YAYI 2: Multilingual Open-Source Large Language Models

828 篇文章

已下架不支持订阅

本文介绍YAYI 2,一个300亿参数的多语言开放源代码大型语言模型。在预训练、对齐和推理方面进行了详细阐述,旨在提升中文环境下的性能。YAYI 2通过指令调优和RLHF与人类价值观保持一致,表现出色于多个基准测试,如MMLU和CMMLU,但在安全性方面仍需谨慎使用。

本文是LLM系列文章,针对《YAYI 2: Multilingual Open-Source Large Language Models》的翻译。

YAYI 2:多语言开源大型语言模型

摘要

随着自然语言处理的最新进展,大型语言模型(LLM)已经在许多现实世界任务中实现了人类层面的语言理解和生成能力,甚至被视为通用人工智能的潜在途径。为了更好地促进LLM的研究,最近提出了许多开源LLM,如Llama 2和Falcon,并获得了与专有模型相当的性能。然而,这些模型主要是为英语场景设计的,在汉语环境中表现不佳。在这份技术报告中,我们提出了YAYI 2,包括基础模型和聊天模型,参数为300亿。YAYI 2是在多语言语料库上从头开始进行预训练的,该语料库包含2.65万亿个由我们的预训练数据处理管道过滤的token。通过对数百万条指令的监督微调和从人类反馈中的强化学习,基本模型与人类价值观保持一致。在MMLU和CMMLU等多个基准测试上进行的大量实验一致表明,所提出的YAYI 2优于其他类似规模的开源模型。

1 引言

2 预训练

3 对齐

4 推理

5 安全

6 评估

7 结论

在本技术报告中,我们提出了多语言YAYI2-30B LLM,特别关注中文相关应用。我们介绍了预训练数据集的分布,以及预处理管道。YAYI2-30B模型遵循流行的仅解码器模型架构,采用FlashAttention 2和MQA来加快训练和推理。我们还揭示了预训练的细节,包括计算集群、训练策略和技巧,我们相信这将大大有利于行业

已下架不支持订阅

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值