- 博客(7)
- 收藏
- 关注
原创 FPS代码,原理,笔记,计算流程
(分别是点0、点1、点2、点3、点4、点5到点0的距离平方)。(分别是点0、点1、点2、点3、点4、点5到点3的距离平方)。(分别是点0、点1、点2、点3、点4、点5到点1的距离平方)。[0.0, 0.0, 0.0], # 点0。[1.0, 0.0, 0.0], # 点1。[0.0, 1.0, 0.0], # 点2。[1.0, 1.0, 0.0], # 点3。[0.0, 0.0, 0.0], # 点0。[1.0, 1.0, 0.0], # 点3。(1个点云,6个点,每个点3个坐标)。
2025-03-20 13:53:30
293
原创 论文学习笔记:A Novel RGB-D Cross-Background Robot GraspDetection Dataset and Background-AdaptiveGrasping
本文着重记录网络模型,框架详细内容。数据集的验证还需看原文提出了一种新颖的 RGB-D 跨背景机器人抓取检测数据集(CBRGD)。该数据集旨在提高智能机器人在面对多样化和动态场景时的性能。CBRGD数据集由7种不同的常见背景和58个常见物体组成,涵盖了各种抓取场景提出了一种名为 BA-Grasp 的背景自适应机器人多目标抓取检测网络。使用双峰前景激活策略(BFAS),我们可以抑制背景噪声,同时突出显示前景中的目标对象。
2024-12-10 22:27:24
905
原创 论文学习笔记:Attribute-Based Robotic Grasping WithData-Efficient Adaptation
本文试图通过利用有助于识别、掌握和快速适应新领域的对象属性(例如颜色、形状和类别名称等)来应对这一挑战。在这项工作中,我们提出了一种端到端的编码器-解码器网络,用于学习具有数据高效适应能力的基于属性的机器人抓取。一、摘要 Abstract使用门控注意力机制融合工作空间图像和查询文本的嵌入,并学习预测实例抓取的可供性模型在模拟中是自我监督的,仅使用各种颜色和形状的基本对象,但可以推广到新环境中的新对象出了两种适应方法,对抗性适应和单抓适应。二、介绍 Introduction。
2024-11-25 16:13:50
618
原创 论文学习笔记: Generalizable Vision-Tactile Robotic Grasping Strategy forDeformable Objects via Transform
提出了一种基于 Transformer 的刚性夹具机器人抓取框架,该框架利用触觉和视觉信息来安全抓取物体。Transformer 模型通过执行两个预定义的探索动作(捏和滑动)来学习具有传感器反馈的物理特征嵌入通过具有给定抓取强度的多层感知器 (MLP) 来预测抓取结果收集了一个新的水果抓取数据集,并使用所提出的框架对可见和不可见的水果进行在线抓取实验。我们采用两种最先进的 Transformer 模型 – TimeSformer和 ViViT。通过预先设计的探索动作(捏和滑动)期间收集的。
2024-11-14 20:12:46
907
原创 论文学习笔记:Sim-to-Real Grasp Detection with Global-to-Local RGB-D Adaptation
目录一、摘要 Abstract二、介绍 Introduction三、相关工作 Related Work3.1 Sim-to-Real Transfer 模拟到真实的转变3.2 Sim-to-real Transfer for Grasp Detection 抓取检测的模拟到真实的转变四、方法 Methology4.1 GL-MSDA framework 整体框架4.2 Self-supervised Rotation Pre-training 自监督旋转预训练。
2024-11-14 01:13:41
1014
1
原创 论文学习笔记:GaussianGrasper: 3D Language Gaussian Splatting forOpen-vocabulary Robotic Grasping
提出了 GaussianGrasper,它利用 3D 高斯分布将场景显式表示为高斯基元的集合提出了一种高效特征蒸馏(EFD)模块,采用对比学习来高效、准确地提取从基础模型派生的语言嵌入。提出了一个法线引导抓取模块来选择最佳抓取姿势。作者采用一组有限的 RGB-D 视图,并采用基于图块的泼溅技术来创建特征字段。通过重建高斯场的几何形状,该方法(EFD)使预训练的抓取模型能够生成无碰撞抓取姿势候选。
2024-11-06 21:12:44
1398
1
原创 论文学习笔记:Language-driven Grasp Detection
人们提出了许多方法和数据集来解决抓取检测问题。然而,他们中的大多数人并没有考虑使用自然语言作为检测抓取姿势的条件。在本文中,我们介绍了 Grasp-Anything++,一个用于语言驱动的抓取任务的新数据集和方法提示:以下是本篇文章正文内容,下面案例可供参考贡献点介绍了 Grasp-Anything++,这是一种新的语言驱动的大型抓取检测数据集,用于语言驱动的抓取检测任务,具有1M样本,超过10M物体,超过100M指令。提出了一种具有训练目标的扩散模型,该模型明确有助于去噪过程以检测抓取姿势。
2024-11-04 18:37:47
1082
1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人