- 青稞社区:https://qingkeai.online
原文:[https://mp.weixin.qq.com/s/PybP4jU-YkhtHArLfTGdAw](https://mp.weixin.qq.com/s/PybP4jU-YkhtHArLfTGdAw)
最近半年,VLA 在机器人策略学习上的惊艳表现,让“用规模推动智能”再次成为可能,也被视为通往通用智能的重要路径。

强化学习被普遍认为能进一步释放 VLA 的潜力。但现实却很骨感:缺少成熟的 RL 框架、难以复用的代码结构、高昂的显卡开销,都让新算法的开发门槛居高不下。

为了解决这些痛点,我们打造了 RLinf-VLA ——一个统一、高效、可扩展的 VLA 强化学习框架,让你能专注于算法本身,而不是在工程复杂度里挣扎。
https://arxiv.org/pdf/2510.06710
它不仅优化了训练与推理的资源利用,还在架构上为多种仿真器、VLA模型和 RL 算法支持。
12月2日(周二)晚8点,青稞Talk 第94期,RLinf 强化学习框架 VLA 部分的核心开发人员之一、清华大学交叉信息研究院本科生臧宏之,将直播分享《RRLinf-VLA 实践:从零上手 VLA(OpenVLA )强化学习》。
在本次直播中,我们将深入讲解 RLinf-VLA 的设计思路、系统结构与实际性能。
分享嘉宾
臧宏之,清华大学交叉信息研究院本科生,研究兴趣在强化学习与机器人学习。RLinf 强化学习框架 VLA 部分的核心开发人员之一。
主题提纲
RLinf-VLA 实践:从零上手 VLA(OpenVLA )强化学习
1、RLinf-VLA 的设计思路与系统架构
2、关于 VLA+RL 的算法技术设计: PPO / GRPO 等
3、OpenVLA 的微调实践
4、AMA (Ask Me Anything)环节
直播时间
12月2日20:00 - 21:00
如何观看
Talk 将在青稞社区【视频号:青稞AI、Bilibili:青稞AI】上进行直播,欢迎预约交流
OpenVLA强化学习微调实战
15万+

被折叠的 条评论
为什么被折叠?



