TigerBot: An Open Multilingual Multitask LLM

828 篇文章

已下架不支持订阅

本文介绍了TigerBot,一个包含7B至180B参数的预训练和聊天LLM家族,性能超越SOTA,尤其在英语和中文上表现显著。TigerBot不仅在学术和工业基准上取得领先,还注重实际应用,为开源社区贡献力量。

本文是LLM系列文章,针对《TigerBot: An Open Multilingual Multitask LLM》的翻译。

TigerBot:一种开放的多语言多任务LLM

摘要

我们发布并介绍了TigerBot系列的大型语言模型(LLM),由基础模型和聊天模型组成,大小分别为7、13、700和1800亿个参数。我们从Llama-2和BLOOM开始开发我们的模型,并在数据、训练算法、基础设施和应用工具方面进一步突破界限。与SOTA开源模型(例如Llama-2)相比,我们的模型获得了有意义的性能提升,特别是英语提升了6%,中文提升了20%。TigerBot模型家族在主要的学术和行业基准和排行榜上也取得了领先的表现。我们相信TigerBot只是LLM开源社区闪电般发展的一个缩影。因此,我们很高兴能够通过公开发布我们的模型和报告我们的方法来回报,并进一步强调以民主化的方式构建SOTA LLM以及使LLM在现实世界的应用中发挥作用。

1 引言

2 TigerBot模型

3 应用

4 结论

在这项工作中,我们介绍了TigerBot,这是一个预训练和聊天LLM家族,参数大小为7B到180B。TigerBot凭借其高质量的训练数据和一系列尖端的训练方法和系统实现了SOTA性能。我们还特别强调了实际应用,对一系列工具和现实世界场景进行了详细的实现和观察。我们坚信开放式创新,我们的工作从LLM开源社区中受益匪浅。同样,我们希望我们的工作能够为社区未来的理论和实践研究与发展做出贡献。
LLM的出现标志着几十年人工智能发展史上最激动人心的时刻之一,这主要是因为它具有压倒性的性能,具有极端的通用性,同时易于构建。我们同样感到敬畏。然而,从

已下架不支持订阅

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值