Modeling Point Clouds with Self-Attention and Gumbel Subset Sampling小笔记(本人也是小白,好多地方也不太懂,现在是做个笔记方式防止之后忘了,有错误还请不吝指正,大家共同进步呀)
总体介绍
这篇论文大概是在PointNet++(++总结,链接: link.)的基础上提出来的,相比之下呢,它舍弃掉了pointnet++中利用卷积核来提取局部特征的方式,换成了类似自注意力机制的方式(GSA)来获得点间的关联信息(突出一些点的特征),另外它舍弃掉了pointnet++中使用最远点采样(FPS)的方式来获取代表点的方法,改为使用Gumbel Subset Sampling(GSS)来获取代表点,下面我将分别介绍GSA与GSS。
该论文与pointnet++对比:1.在提取特征部分,++使用最远点采样,以采样
得到的点为中心形成球域,并从球域中提取特征升维;而该论文选择使用ARPE模块直接将点升维,再利用GSA突出一些点的重要程度,以达到寻找特征的效果。2.在分类部分,++使用pointnet的结构将之前提取的特征融合成一个向量,再通过全连接层去提取全局特征,而该论文通过下采样(甘贝尔)的方式去提取全局最重要的特征。3.在分割部分,++使用插值上采样的操作来恢复原始点云,而该论文使用GSA的方式。
Group Shuffle Attention(GSA)
介绍
1.首先,我们知道在Attention机制当中(推荐大家链接: link.这篇文章,对Attention讲的很易懂)是对输入的词进行编码,然后将编码矩阵分别乘以三个训练出的参数,从而得到Q(query),K(key),V(value),接着用该词的Q作为一个索引去乘以上下