谷歌报复性砸出5620亿参数大模型!比ChatGPT更恐怖,机器人都能用,学术圈已刷屏...

明敏 发自 凹非寺
量子位 | 公众号 QbitAI

为应对新一轮技术竞赛,谷歌还在不断出后手。

这两天,一个名叫PaLM-E的大模型在AI学术圈疯狂刷屏。

ef55f45feb1bd8addd94a61a77634f70.gif

它能只需一句话,就让机器人去厨房抽屉里拿薯片。

7156a3c69f4f60f748a1848e701039c4.gif

即便是中途干扰它,它也会坚持执行任务。

8280f67dc8002337d831b48f795d6ad5.gif

PaLM-E拥有5620亿参数,是GPT-3的三倍多,号称史上最大规模视觉语言模型。而它背后的打造团队,正是谷歌和柏林工业大学。

作为一个能处理多模态信息的大模型,它还兼具非常强的逻辑思维。

比如能从一堆图片里,判断出哪个是能滚动的。

fb0af257fe76686feb86fa091f056997.png

还会看图做算数:

c971054c0c6cd56c636860dade0800da.png

有人感慨:

这项工作比ChatGPT离AGI更近一步啊!

13ecd56daa56bc5d007d55f6250afed6.png

而另一边,微软其实也在尝试ChatGPT指挥机器人干活。

这么看,谷歌是凭借PaLM-E一步到位了?

逻辑性更强的大模型

PaLM-E是将PaLM和ViT强强联合。

5620亿的参数量,其实就是如上两个模型参数量相加而来(5400亿+220亿)。

303c4afb8c0a4ebc1d237692a1ee6078.png

PaLM是谷歌在22年发布的语言大模型,它是Pathways架构训练出来的,能通过“思考过程提示”获得更准确的逻辑推理能力,减少AI生成内容中的错误和胡言乱语。

Pathways是一种稀疏模型架构,是谷歌AI这两年重点发展方向之一,目标就是训练出可执行成千上百种任务的通用模型。

ViT是计算机视觉领域的经典工作了,即Vision Transformer。

两者结合后,PaLM-E可以处理多模态信息。包括:

  • 语言

  • 图像

  • 场景表征

  • 物体表征

通过加一个编码器,模型可以将图像或传感器数据编码为一系列与语言标记大小相同的向量,将此作为输入用于下一个token预测,进行端到端训练。

e8333aab8751e338c514e59fa0120b0d.jpeg

具体能力方面,PaLM-E表现出了比较强的逻辑性。

比如给它一张图片,然后让它根据所看到的做出蛋糕。

模型能先判断出图像中都有什么,然后分成9步讲了该如何制作蛋糕,从最初的磕鸡蛋到最后洗碗都包括在内。

7cf96718ebc668cea847e08d8d7d0a75.png

有人还调侃说,这机器人怎么在把蛋糕给我前先自己吃了?

08871e6523ecdda526ed821105886fc3.png

还有根据图片做判断:我能在这条路上骑自行车吗?

模型进行一系列逻辑推断:

1、不能进入
2、除了自行车
3、除了自行车以外都不能进入
4、答案是可以

65497c64a9a002d7fe1a9931a6dfa872.png

这和人类思考的过程确实很像了。

不仅如此,模型的最强大之处在于,它无需经过预处理,即提前理解环境。

它做出判断和回答,完全是基于它自己的“经验”。

研究人员表示,这项成果表现出了很强的正向迁移(positive transfer)能力。

在多个领域任务的训练中,PaLM-E的表现都优于单项任务机器人模型。

d2e793cd31037539a6d2f67713847e2a.jpeg

而且他们还发现,语言模型的规模越大,它最终能保持的语言理解能力越强。

比如使用5400亿参数规模的PaLM时,PaLM-E在语言任务上的实际能力仅下降了3.9%。

de5f9d83280bb968c8fdd40bc67411ed.png

从实验结果来看,PaLM-E在OK-VQA基准上达到新SOTA。

a8ddcc56cb13ff1caed78a445e744db5.png

在模拟环境下的任务完成度也都不错。

618333bee12c7b8db8a547b8fb648371.png

再次验证大力出奇迹

目前这项研究已引发非常广泛的讨论。

主要在于以下几个方面:

1、一定程度上验证了“大力出奇迹”
2、比ChatGPT更接近AGI?

一方面,作为目前已知的规模最大的视觉语言模型,PaLM-E的表现已经足够惊艳了。

去年,DeepMind也发布过一个通才大模型Gota,在604个不同的任务上接受了训练。

但当时有很多人认为它并不算真正意义上的通用,因为研究无法证明模型在不同任务之间发生了正向迁移。

论文作者表示,这或许是因为模型规模还不够大。

如今,PaLM-E似乎完成了这一论证。

ca3b10ee6b1b54407455a8446aecebaf.png

不过也有声音担心,这是不是把卷参数从NLP引到了CV圈?

ccd149a9c505fdc4fdf43c8961a715f6.jpeg

另一方面,是从大趋势上来看。

有人表示,这项工作看上去要比ChatGPT更接近AGI啊。

的确,用ChatGPT还只是提供文字建议,很多具体动手的事还要自己来。

但PaLM-E属于把大模型能力拉入到具象化层面,AI和物理世界之间的结界要被打破了。

5b64eee2d50dc3aeaab39de5d37abb68.png

而且这个趋势显然也是大家都在琢磨的,微软前不久也发布了一项非常相似的工作——让ChatGPT指挥机器人。

除此之外,还有很多人表示,这再一次验证了多模态是未来。

不过,这项成果现在只有论文和demo发布,真正能力有待验证。

011ca81e1463138386483222859401e0.png

此外还有人发现,模型驱动的机器人,背后的开发团队在几周前被谷歌一锅端了。。。

95c7e314e840f0b29bf7f23ff9cf638d.png

所以关于PaLM-E的更多后续,咱们还得再蹲蹲看。

论文地址:
https://arxiv.org/abs/2303.03378

参考链接:
[1]https://palm-e.github.io/
[2]https://news.ycombinator.com/item?id=35050475
[3]https://metro.co.uk/2023/02/23/google-lays-off-team-of-robots-that-cleaned-tables-and-sorted-rubbish-18336703/

「中国AIGC产业峰会」启动

邀您共襄盛举

「中国AIGC产业峰会」即将在今年3月举办,峰会将邀请AIGC产业相关领域的专家学者,共同探讨生成新世界的过去、现在和未来。

峰会上还将发布《中国AIGC产业全景报告暨AIGC 50》,全面立体描绘我国当前AIGC产业的竞争力图谱。点击链接或下方图片查看大会详情:

被ChatGPT带飞的AIGC如何在中国落地?量子位邀你共同参与中国AIGC产业峰会

15beac1bad69879f8dfb6b72305b8650.gif

点这里👇关注我,记得标星哦~

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值