腾讯混元国际翻译模型Hunyuan-MT-7B开源 轻量级模型刷新30项国际赛事纪录

腾讯混元国际翻译模型Hunyuan-MT-7B开源 轻量级模型刷新30项国际赛事纪录

【免费下载链接】Hunyuan-MT-Chimera-7B 腾讯混元Hunyuan-MT-Chimera-7B是业界首个开源翻译集成模型,支持33种语言互译(含5种中国少数民族语言)。在WMT25竞赛中,31个参赛语言方向里斩获30项第一,以创新集成框架提升翻译质量至新高度,同规模模型中性能领先 【免费下载链接】Hunyuan-MT-Chimera-7B 项目地址: https://ai.gitcode.com/tencent_hunyuan/Hunyuan-MT-Chimera-7B

9月1日,腾讯混元正式对外宣布,将旗下自主研发的国际翻译模型全面开源,开发者可免费获取并进行本地化部署。这款名为Hunyuan-MT-7B的翻译模型,以仅70亿的参数量实现了33个语种的互译支持,其中特别包含5种民族语言及方言的翻译能力,展现出轻量级模型的全能型应用潜力。

在刚刚结束的国际计算语言学协会(ACL)WMT2025国际机器翻译大赛中,腾讯混元团队以Shy-hunyuan-MT为参赛名称提交的Hunyuan-MT-7B模型,在全部31个语种的翻译任务中一举斩获30项冠军,创下该赛事创办以来的最佳成绩纪录。值得关注的是,本次参赛语种不仅覆盖中英日韩等主流语言,还包含捷克语、马拉地语、爱沙尼亚语、冰岛语等12种低资源小语种,充分验证了模型在罕见语言翻译场景下的突破性能力。WMT25赛事作为全球机器翻译领域的权威竞赛,对参赛模型实施严格的参数规模限制,并要求所有参赛系统必须开源且仅使用公开数据训练,在这种公平竞技环境下,Hunyuan-MT-7B成功超越众多大参数量模型,彰显出腾讯在自然语言处理领域的技术积淀。

技术测评数据显示,该模型在国际通用的Flores200翻译基准数据集上表现优异,不仅显著超越同尺寸模型的翻译质量,在部分语种上甚至达到超大参数量模型的性能水平。腾讯混元团队研发的全链条训练范式,通过预训练优化、对比学习调优、监督式参数微调、翻译质量强化学习及集成推理优化五大环节,构建了一套完整的翻译模型训练体系,这一技术创新成为模型实现"轻量高效"的核心支撑。

目前Hunyuan-MT-7B已实现多场景业务落地,在腾讯会议的实时字幕翻译、企业微信的跨语言消息同步、QQ浏览器的网页翻译插件以及腾讯海外客服系统中均已投入使用,日均处理翻译请求超千万次。为方便开发者使用,腾讯混元已在官方平台上线模型体验入口,并同步在Huggingface及Gitcode等开源社区提供模型权重下载,配套的技术报告与学术论文也已公开。开发者可通过腾讯混元官网模型广场直接体验模型效果,或通过开源社区获取完整的模型部署资源。

【免费下载链接】Hunyuan-MT-Chimera-7B 腾讯混元Hunyuan-MT-Chimera-7B是业界首个开源翻译集成模型,支持33种语言互译(含5种中国少数民族语言)。在WMT25竞赛中,31个参赛语言方向里斩获30项第一,以创新集成框架提升翻译质量至新高度,同规模模型中性能领先 【免费下载链接】Hunyuan-MT-Chimera-7B 项目地址: https://ai.gitcode.com/tencent_hunyuan/Hunyuan-MT-Chimera-7B

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值