波士顿动力电驱机器人进厂打工,全程自主无遥控,50万人在线围观

部署运行你感兴趣的模型镜像
一水 发自 凹非寺
量子位 | 公众号 QbitAI

登上油管热榜,吸引50万网友围观,波士顿动力人形机器人又放大招了——

无远程遥控(Fully Autonomous),Atlas可完全自主打工了。

cb1205ba0b43e9aaaa8ca9dd3afd9536.png

只需告诉Atlas前后搬运的位置坐标,它就能全自动分装物件,动作be like:

c6c6881ee201c9d95ad57bd580e2e988.gif

而在Atlas的第一视角下,它看到的是酱紫的:

1a6fabd51516d550de4ae140872dd729.gif

面对“刁难”(物件在底层位置),Atlas直接一个帅气下蹲,再次成功完成任务。

940043cd812e340bb9d7faec653f5ca4.gif

更有意思的是,当发现自己弄错位置后,Atlas突然以一个鬼畜完成了瞬间纠错。(笑死,怪突然的)

9212229e34c32f02cacfe02a04fcd9cb.gif

总之,在近3分钟demo中,Atlas进行了一系列秀肌肉操作:头部、上半身、髋关节都能360°旋转,可随时转向、倒退行走……

b405420b38af145b4f41e9e074f0cc86.gif

有网友惊呼,其他机器人还在学走路,Atlas已经开始朝九晚五,甚至007式打工了!

2a53e79b88d211dffd61af4d83180ae2.png

同行(通用仓库机器人nimble ai创始人)大赞:Atlas已经遥遥领先了。

只有机器人专家才知道Atlas有多棒

eace185dcab873c937552bb8d32c791d.png

网友:完全自主?你引起了我的注意

自从今年4月宣布改液压为电驱后,这是波士顿动力人形机器人为数不多的露面。

上一次还是8月底,他们展示了Atlas能够一口气做俯卧撑、深蹲等热身运动,当时就震惊了上百万网友。

e31cb783348315d516038f6315d31318.gif

而在最新demo中,Atlas又瞄准了自动化控制,现在它能在集装箱和移动小车间自主移动发动机盖了。

据波士顿动力介绍,Atlas使用机器学习视觉模型来检测和定位环境固定装置和单个箱子,并且会使用专门的抓取策略,通过不断估计被操纵物体的状态来完成任务。

机器人能够结合视觉、力和感知来检测环境变化(如移动固定装置)和动作故障(如未能插入盖子、绊倒、环境碰撞)并做出反应。

007a3405a2125577c3b593347e58e4ad.gif

看完一系列最新表现,果不其然又惊倒了一片网友:

完全自主?现在你引起了我的注意

74478b908c3a473ea8341b645137ec26.png
57f15161f43ecfa52b301b99a93cc163.png

网友们也是纷纷cue起了特斯拉人形机器人Optimus~

前一阵,Optimus在特斯拉的发布会上同样大秀肌肉(开场热舞、与人交谈猜丁壳、倒酒等一个不落),不过最后被多方证明存在现场远程操控。

后来特斯拉也发布了一个展示Optimus自主导航的demo:

01f5bcc1564aad16a0aa87a85212d33b.gif

对于这两家人形机器人领域同样炙手可热的竞争对手,网友们也开始各自站台,并最终达成了一个“共识”。

二者的差距在于量产。波士顿动力单兵能力强,而特斯拉在商业化量产方面更具优势。

374f1e805133a679e657d061b37ab0b3.png

背后的逻辑也很简单,人形机器人最终还是要走向消费市场。

43ed49aa5410540d2c0e6416768f285b.png

不过不管怎样,Atlas展现的细节已十分惊艳,比如可以360°旋转的身体、头部。

7c2e529c168dd3f875317625555b8b0b.png
76f926717983095b0b5c0f90f152b1a7.png

虽然也有人吐槽这很诡异,不过大多数人表示看好:

人形机器人能够被设计而不是进化,意味着一旦我们弄清楚工程原理,各种变形金刚和驱魔人式的能力都可能发生。

07bf33f224a49f76f19c45a81b551ae1.png

另外,还有人疑惑为什么Atlas不搞个360°全景摄像头,还需要转动头部呢?

对此,有网友推测最大原因还是控成本

更高分辨率的深度相机价格昂贵(带宽和计算),因此将超密集传感器限制在工作空间的位置是很有意义的。

b899ec7ca03d4a7c2cc95a3edea23342.png

实在不行,也可以“低质量的360°全景视觉+面向单一方向的高质量相机/激光雷达”(网友支招有)。

80df4b19bf40ccb639d087eecc2777e9.png

One More Thing

在reddit网友一片热议中,部分网友发出了灵魂拷问:

机器人完成这种任务(分装物件)好像没啥大意义?能不能更贴近现实生活。

5900dc94df1fd8a07e279d439b305a88.png

对此,也有人对Atlas采用的技术表达担忧:基于点和规划器/优化器在泛化能力上可能不如神经网络等。

b145bfad607be565c22bb617774b4578.png

且就在刚刚,英伟达新发布了HOVER,一个1.5M参数的神经网络控制器,用于人形机器人的全身运动和操作协调。

据负责英伟达具身智能实验室(GEAR)的Jim Fan介绍:

人类在行走、保持平衡以及操纵四肢到达期望位置时,需要大量的潜意识处理。我们在HOVER中捕捉了这种“潜意识”,这是一个单一模型,学习如何协调人形机器人的电机以支持运动和操纵。

我们在NVIDIA Isaac中训练了HOVER,这是一个GPU驱动的仿真套件,能够实现比现实时间快10000倍的物理模拟速度

为了直观理解这个数字,机器人在虚拟“道场”中经历了一年的密集训练,但在一块GPU卡上仅花费了大约50分钟的真实时间。然后,神经网络无需微调即可零样本迁移到现实世界。

简单说,HOVER可以被“提示”执行各种指令,英伟达称之为“控制模式”。比如:

  • 头部和手部姿势:可以通过XR设备如苹果的Vision Pro捕捉

  • 全身姿势:通过动作捕捉或RGB相机

  • 全身关节角度:外骨骼

  • 根速度指令:操纵杆

概括而言,HOVER提供了一个统一接口,允许使用任何方便的输入设备来控制机器人。

它简化了收集全身遥控操作数据的方式,以便于训练;且作为一个上游的视觉-语言-动作模型,只要提供运动指令,HOVER就能将其转换为高频的低级电机信号。

73a678247395e463806caaf28f4c2062.png

对此,你怎么看?

参考链接:
[1]https://www.youtube.com/watch?v=F_7IPm7f1vI
[2]https://www.reddit.com/r/singularity/comments/1gfmytj/new_creepy_atlas_video_dropped/
[3]https://twitter.com/simonkalouche/status/1851632608171679817

评选征集中

「2024人工智能年度评选」

量子位2024人工智能年度评选已开启报名通道,评选从企业人物产品三大维度设立了5类奖项。

欢迎扫码报名评选!评选结果将于12月MEET2025智能未来大会公布,期待与数百万从业者共同见证荣誉时刻。

6ca14c9b358293f479f245477e18a009.png

点这里👇关注我,记得标星哦~

您可能感兴趣的与本文相关的镜像

GPT-SoVITS

GPT-SoVITS

AI应用

GPT-SoVITS 是一个开源的文本到语音(TTS)和语音转换模型,它结合了 GPT 的生成能力和 SoVITS 的语音转换技术。该项目以其强大的声音克隆能力而闻名,仅需少量语音样本(如5秒)即可实现高质量的即时语音合成,也可通过更长的音频(如1分钟)进行微调以获得更逼真的效果

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值