RT1 RT2 RTX() 学习

RT-1:

初生代的 ‘视觉-语言-动作模型’ 作品

RT-2:

RT1使用130k条机器人遥操作数据训练,展示出了其处理多种任务的能力和很强的泛化能力。但其通用性仍受限于数据集的大小。

若想要得到一个表现出当前LLMs能力的机器人大模型,收集数以亿计的机器人数据在短期内看起来是不可能的。

因此本文提出使用VLMs(trained on Internet-scale vision and language data along with robotic control data:借助其强大的对图像的理解、推理等能力,结合机器人的数据(来自于RT1数据集)和原有的数据一起来对VLMs做co-fine-tuning,使其成为VLA(vision-language-action model),直接输出机器人的控制指令,实现实时的闭环控制。

RT-X:

参考:

机器人研究迎来ImageNet时刻:一个数据集,让DeepMind具身智能大模型突飞猛进

https://robotics-transformer-x.github.io/paper.pdf

Open X-Embodiment: Robotic Learning Datasets and RT-X Models

我们知道,机器人通常在做某一件事情上非常专业,但通用能力很差。一般情况下,你必须针对每项任务、每个机器人和环境训练一个模型。改变一个变量往往需要从头开始。但是,如果我们能将各种机器人学的知识结合起来,创造出一种训练通用机器人的方法呢?

这就是 DeepMind 在过去一段时间所做的事情。他们汇集了来自 22 种不同机器人类型的数据,以创建 Open X-Embodiment 数据集,然后在之前的模型(RT-1 和 RT-2)的基础上,训练出了能力更强的 RT-X(分别为 RT-1-X 和 RT-2-X)。

Paper读后感悟:multiple datasets can improve robot behaviors success, but this obey to the corresponding models. BIg datasets need big network. Small dataset may not work well on big network

### F1C200S与RT-Thread开发资源汇总 对于希望深入了解并使用基于全志F1C200S处理器以及RT-Thread操作系统的开发者而言,获取详尽的技术文档和支持材料至关重要。以下是关于如何获得这些必要资源的信息: #### 官方网站和技术论坛 访问RT-Thread官方网站可以获得最新的官方发行版本、更新日志以及其他重要通知。此外,在线社区和技术支持论坛也是解决问题和交流经验的好地方[^2]。 #### 开发环境搭建指导 为了简化初次使用者的学习曲线,《快速入门指南》提供了详细的步骤说明,帮助用户完成从安装必要的软件包到创建第一个项目的全过程。特别是针对像`F1C200s_with_Keil_RTX4_emWin5-Demo.zip`这样的特定平台演示项目,能够提供实际的操作案例供学习参考[^1]。 #### 驱动程序编写技巧 有关于底层硬件控制方面的知识,则可以在《嵌入式驱动开发教程》中找到答案。该书不仅涵盖了理论基础,还包括了许多实用的例子,比如如何从DDR中截取内存用于特殊用途等高级主题[^4]。 #### 性能优化建议 考虑到性能因素的选择,选择适合的应用场景非常重要。例如,当面对有限的计算能力和存储空间时,采用轻量级操作系统如RT-Thread Nano可能是更好的解决方案。它去除了不必要的功能模块,专注于提供稳定高效的实时调度能力。 #### 视频课程推荐 最后但同样重要的是一系列由专业人士录制的教学视频。它们通常更直观易懂,并且往往包含了更多实践环节的内容。以介绍全志F1C100S为例的一套高质量视频教程已经得到了广泛好评,相信也会对理解同一系列其他型号有所帮助[^3]。 ```bash # 示例命令:克隆XFEL工具源码仓库 git clone https://github.com/your-repo-url/x-fel.git ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值