小米开源MiMo-Embodied-7B:跨自动驾驶与具身智能的统一大模型解析

小米开源跨域具身大模型MiMo

小米于2025年11月21日正式发布并全面开源的 MiMo-Embodied 是业界首个跨域具身大模型,它成功打通了自动驾驶(Autonomous Driving)和具身智能(Embodied AI)两大领域,实现统一建模。该模型参数规模为7B(70亿),采用MIT许可协议,模型权重、代码和相关资源已在Hugging Face平台开源(仓库地址:https://huggingface.co/XiaomiMiMo/MiMo-Embodied-7B)。其核心创新在于统一处理具身智能的三大核心任务(感知理解、任务规划、空间推理)和自动驾驶的三大关键任务(环境感知、行为预测、路径规划),并实现双向知识迁移:室内交互经验(如机器人抓取物体)可提升道路决策鲁棒性,反之亦然。这不仅降低了多模态数据处理的复杂性,还为通用具身智能从“单一场景专用”向“多场景协同”迈进提供了基石。

MiMo-Embodied 的卓越表现主要体现在其在29项核心基准测试(Benchmarks)中的领先成绩。这些测试覆盖感知、决策与规划三大维度,涉及17项具身智能基准和12项自动驾驶基准。官方宣称,该模型确立了开源基座模型的性能新标杆,全面超越现有开源模型、闭源模型以及专用模型。以下是对这些表现的详细解读,我将从整体成绩、关键基准分类、比较分析、技术原因以及实际意义五个方面展开说明。数据来源于小米官方论文(arXiv: 2511.16518)和发布公告。

1. 整体成绩概述

测试范围:29项基准测试是具身智能与自动驾驶领域的权威评估集,涵盖从基础感知(如物体检测)到高级决策(如多模态规划)的全链路能力。测试数据包括真实世界采集的多模态输入(RGB图像、深度图、LiDAR点云、文本指令等)。

性能指标:MiMo-Embodied 在这些测试中平均得分提升了15%-30%(视具体任务而定),特别是在跨域迁移场景下表现出色。例如,在模拟室内-室外混合环境中,它能将自动驾驶的交通规则知识迁移到机器人避障任务中,提高成功率20%以上。

开源模型新标杆:作为7B规模模型,它在资源受限设备(如边缘计算硬件)上的推理效率高,延迟低至毫秒级,支持实时部署。这使其在实际应用中更具普适性。

2. 关键基准分类及详细成绩

基准测试分为三大类,我将列出代表性任务及其成绩。注意:具体数值基于官方报告的标准化分数(越高越好,满分100),并标注了MiMo-Embodied的领先幅度。表格形式便于比较。

类别

代表性基准

任务描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值