阿里开源最强视觉模型家族轻量版:仅4B/8B参数,性能逼近72B旗舰版

今天,阿里通义千问团队正式宣布开源Qwen3-VL系列的4B8B版本,以更小的参数量实现了接近上一代72B旗舰模型的性能表现,为资源受限的开发环境提供了新的选择。

图片

两款模型均提供InstructThinking两个版本,满足不同场景下的使用需求。

在多模态性能方面,Qwen3-VL-8B Instruct在MIABench、OCRBench、SUNRGBD、ERQA、VideoMMMU、ScreenSpot等30项权威基准测评中取得SOTA成绩,超越了Gemini 2.5 Flash Lite、GPT-5 Nano以及Qwen2.5-VL-72B等顶尖模型。

图片

Thinking版本在MathVisionMMStarHallusionBenchMM-MT-BenchCountBench23项权威基准测评中取得了SOTA成绩。

图片

破解“跷跷板”难题

长期以来,小模型面临着一个棘手的问题——增强视觉能力时往往削弱文本理解,反之亦然。这种现象被业界称为“跷跷板”问题。

阿里通过架构创新与技术优化,成功解决了这一难题。新模型实现了“视觉精准”与“文本稳健”的协同提升,在强化多模态感知与视觉理解的同时,保持了原有的文本理解能力。

这一突破使得Qwen3-VL-8B InstructMIABenchOCRBenchSUNRGBDERQAVideoMMMUScreenSpot30项权威基准测评中取得SOTA成绩。不仅在视觉理解领域表现出色,在纯文本任务上也实现了整体性能提升。

Qwen3-VL-4B特别侧重端侧应用,具备更高的性价比,适用于需要AI视觉理解能力的智能终端部署。这一特性使其在手机和机器人领域具有重大意义。

模型一经发布,便在外网引起热烈反响。有网友表示“终于,我在16GBMac上可以用了”。

作为阿里视觉理解领域迄今最强模型家族,上个月发布的Qwen3-VL系列在9月底的Chatbot Arena子榜单Vision Arena中位居第二,成为视觉理解领域的全球开源冠军。

同时,Qwen3-VL还斩获纯文本赛道的开源第一,成为首个揽获纯文本和视觉两大领域同时开源第一的大模型。

在全球知名的大模型API三方聚合平台OpenRouter图像处理榜单上,Qwen3-VL48%的市场份额跃升至全球第一。

目前,两款模型已上线魔搭社区与Hugging Face平台,并提供FP8版本支持。为了帮助开发者更好地使用新模型,阿里还推出了Qwen3-VL Cookbook使用指南。该指南涵盖图像思维、计算机使用Agent、多模态编程、3D定位、空间推理、视频理解等多种多模态用例,为用户提供高效上手和深度应用的支持。

阿里通义千问大语言模型负责人林俊旸指出,小型视觉语言模型适合部署,尤其在手机和机器人领域意义重大。过去小模型与大模型性能差距大,此次发布的小模型在参数量大幅减少的情况下,仍能保持接近大模型的性能水平。

Qwen3-VL轻量版模型的开源,标志着视觉语言模型技术正朝着更高效、更普惠的方向发展。这些模型在保持高性能的同时大幅降低资源需求,为AI技术在边缘设备、移动终端等场景的落地提供了新的可能。

随着模型性能的不断提升和开源生态的完善,我们可以预见将有更多创新应用涌现,从智能家居到工业自动化,从移动应用到嵌入式设备,视觉语言模型将以更低的门槛为各行各业赋能。

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值