
机器人
文章平均质量分 89
hallo128
专业:统计学,985硕,北京理工大学。现对AIGC中的扩散模型感兴趣,做论文的公式推导和项目代码实现。
B站定期更新视频,知识交流,共同进步,也欢迎大家提供一些好的文献或者项目代码。
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
回归模型的增量学习的经典文章和方法
以下内容来自chatgpt:回归模型的增量学习是机器学习的一个重要分支,尤其在处理数据不断到来且无法一次性处理全部数据的场景时,经典方法和文章通常围绕解决灾难性遗忘和模型高效更新展开。原创 2024-10-24 15:26:58 · 1228 阅读 · 0 评论 -
机器人研究不同模态之间的融合方法
例如,视觉图像可以帮助机器人定位和识别物体,而触觉数据可以补充视觉的不足,特别是在光线不足或视野受限的情况下。:通常使用时空信息的对齐技术,结合视觉和听觉信号的时序特征,以增强机器人对动态场景的理解。:在机器人导航、物体定位和人机协作任务中,视觉和听觉的融合帮助机器人处理复杂的环境。视觉提供环境和物体的全局信息,而触觉感知物体的局部特征,如材质、温度、摩擦力等。:视觉和触觉的数据通常在空间上不对齐(例如,视觉感知整个场景,而触觉只能感知物体的局部),如何弥合这种差异是研究的重点。原创 2024-10-11 11:56:06 · 3706 阅读 · 0 评论 -
Connecting Touch and Vision via Cross-Modal Prediction【论文十问】
论文的关键解决方案是引入了一种新的条件对抗生成网络(GAN)模型,利用视觉和触觉的配对数据,进行视觉和触觉之间的跨模态预测。尽管跨模态学习已有许多研究,之前的研究主要集中在视觉与听觉、视觉与文本等模态之间的转换,而视觉与触觉的跨模态学习由于数据规模及获取方式的困难性,研究较少。作者面临的主要挑战是视觉和触觉数据之间存在显著的尺度差异:视觉信息覆盖整个场景,而触觉只能感知物体的一小部分。论文提出的科学假设是:通过构建适当的模型,能够从视觉信息生成逼真的触觉信号,反之亦然,即触觉信息能够预测视觉场景。原创 2024-10-11 11:36:51 · 664 阅读 · 0 评论 -
Binding Touch to Everything: Learning Unified Multimodal Tactile Representations【主要工作】
统一多模态触觉表示模型:通过将触觉嵌入与预训练的视觉嵌入对齐,利用对比学习,实现了触觉与其他模态的共享多模态嵌入空间。任务统一与扩展:UniTouch统一了许多现有的触觉感知任务,并显著扩展了触觉感知可以应用的任务范围。共享多模态嵌入空间:通过将触觉嵌入与预训练的视觉嵌入对齐,利用对比学习,实现了触觉与其他模态的。本文提出了一个名为UniTouch的统一多模态触觉表示模型,专门用于基于视觉的触觉传感器。探索更多的跨模态任务:除了已经涉及的任务,未来的工作可以探索更多的跨模态任务,如。原创 2024-09-29 20:15:18 · 782 阅读 · 0 评论