「智元」通用具身基座大模型GO-1发布,人形机器人赛道已进入卷“大脑”时代!

温馨提示运营团队(2025年2月18日整理)原创报告(共210页)

图片

——

正文:

图片

国外知名人形机器人独角兽公司【Figure AI】于2025年2月20日推出其自研通用型视觉-语言-动作(VLA)模型—Helix

2025年3月3日,人形机器人第一股[优必选科技]于发布公司自研全球首个人形机器人多模态推理大模型,该推理大模型基于DeepSeek-R1深度推理技术,借助其强大的数据处理和智能决策能力,让人形机器人具备类似人类常识的推理能力,支持多台人形机器人之间复杂任务的高效拆解、调度与协同。

### 基座大模型 GO-1发布时间及是否基于 PI 开源模型开发 基座大模型 GO-1发布时间并未在提供的引用中明确提及,但可以推测其发布时间应与机器人发布的其他相关技术进展时间线一致。例如,在 4 月 21 日,机器人推出了面向开发者的一站式开发平台 Genie Studio[^3]。这一平台的推出表明机器人能领域的布局逐渐完善,而 GO-1 很可能是在此时间段或稍后发布,作为 Genie Studio 平台的重要组成部分之一。 关于 GO-1 是否基于 PI 开源模型开发的问题,虽然未有直接说明 GO-1开发基础,但从 PI 模型的发展来看,PI 系列(如 π₀)是 VLA 架构的一个重要分支,专注于复杂多阶段控制任务,并且使用 Flow Matching 架构进行训练[^1]。考虑到 GO-1 是一个更通用基座大模型,其设计目标可能是整合 PI 模型的优势并进一步扩展其能力范围。因此,GO-1 很可能借鉴了 PI 模型的技术积累,但在功能和架构上进行了更广泛的优化和扩展。 ```python # 示例代码:简单的多模态 Transformer 模型结构 import torch import torch.nn as nn class MultiModalTransformer(nn.Module): def __init__(self, d_model, nhead, num_layers): super(MultiModalTransformer, self).__init__() self.transformer = nn.Transformer(d_model=d_model, nhead=nhead, num_encoder_layers=num_layers, num_decoder_layers=num_layers) def forward(self, src, tgt): return self.transformer(src, tgt) model = MultiModalTransformer(d_model=512, nhead=8, num_layers=6) src = torch.rand((10, 32, 512)) # 输入序列 tgt = torch.rand((20, 32, 512)) # 目标序列 output = model(src, tgt) print(output.shape) # 输出形状 ``` ### 模型架构和技术特点 GO-1 的设计目标是成为一款强大的基座大模型,能够支持从数据采集到模型推理的完整链路[^3]。这表明 GO-1 不仅备多模态处理能力,还可能集成了类似于 PI 模型的动作控制和复杂任务规划功能。此外,GO-1 的潜在动作模型和潜在规划器(Latent Planner)等模块的设计,可能参考了 AgiBot World 平台中的相关技术架构[^2]。 ### 性能评估和实验分析 在实验设置中,GO-1 的性能表现通过多个维度进行了验证,包括但不限于政策学习的规模效应、数据质量对模型性能的影响以及模型在不同任务场景下的泛化能力[^2]。这些实验结果表明,GO-1 的能力随着数据量的增加而显著提升,同时高质量的数据对其性能的提升有重要作用。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值