Modeling Point Clouds with Self-Attention and GSS

本文介绍了如何在点云处理中应用自注意力机制(GSA)和甘贝尔采样(GSS),以替代PointNet++的卷积和采样策略。GSA通过ARPE模块强调点间关联,而GSS在分类时提供全局重要特征选择。这两者结合改进了特征提取和点云表示。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Modeling Point Clouds with Self-Attention and Gumbel Subset Sampling小笔记(本人也是小白,好多地方也不太懂,现在是做个笔记方式防止之后忘了,有错误还请不吝指正,大家共同进步呀)

总体介绍

这篇论文大概是在PointNet++(++总结,链接: link.)的基础上提出来的,相比之下呢,它舍弃掉了pointnet++中利用卷积核来提取局部特征的方式,换成了类似自注意力机制的方式(GSA)来获得点间的关联信息(突出一些点的特征),另外它舍弃掉了pointnet++中使用最远点采样(FPS)的方式来获取代表点的方法,改为使用Gumbel Subset Sampling(GSS)来获取代表点,下面我将分别介绍GSA与GSS。

该论文与pointnet++对比:1.在提取特征部分,++使用最远点采样,以采样
得到的点为中心形成球域,并从球域中提取特征升维;而该论文选择使用ARPE模块直接将点升维,再利用GSA突出一些点的重要程度,以达到寻找特征的效果。2.在分类部分,++使用pointnet的结构将之前提取的特征融合成一个向量,再通过全连接层去提取全局特征,而该论文通过下采样(甘贝尔)的方式去提取全局最重要的特征。3.在分割部分,++使用插值上采样的操作来恢复原始点云,而该论文使用GSA的方式。

Group Shuffle Attention(GSA)

介绍

1.首先,我们知道在Attention机制当中(推荐大家链接: link.这篇文章,对Attention讲的很易懂)是对输入的词进行编码,然后将编码矩阵分别乘以三个训练出的参数,从而得到Q(query),K(key),V(value),接着用该词的Q作为一个索引去乘以上下

评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值