- 博客(14)
- 收藏
- 关注
原创 Offboard 3D Object Detection from Point Cloud Sequences
通过连续帧的信息来辅助进行3D检测,专注于离线的3D自动标注任务,与车载算法相比,遥遥领先。
2024-12-10 10:27:26
900
原创 segment-anything-fast pytorch官方给出的优化版本
使用了许多新发布的功能,将Meta原始的SAM纯粹重写为PyTorch,并没有损失准确性:- Torch.compile PyTorch的原生JIT编译器,提供快速、自动融合PyTorch操作的功能- GPU量化加速采用降低精度操作的模型- Scaled Dot Product Attention (SDPA) Attention的新型、内存高效实现- Semi-Structured (2:4) Sparsity 使用更少的位数存储权重和激活的模型加速- Nested Tensor 高度优化的、用
2024-10-17 17:36:23
814
原创 Relation DETR
DETRs训练收敛慢的根源使用匈牙利匹配算法为每个真值匹配了唯一的预测正样本,而导致余下的预测结果均作为负样本干扰了训练进程,因此就需要更多的数据和训练轮次进行收敛。之前的工作更多的侧重于优化训练流程(增加额外的监督或优化损失函数)或提出特定的网络结构(优化query)。但是DETRs的核心在于MSA,而self-attention的关键在于提取数据间的关联关系,而输入self-attention的图像数据不会引入结构化偏置,因此。
2024-09-20 09:51:01
1040
原创 UniSeg
point-based保留了最完整的点云的特征和信息,但由于非结构化数据的特点,计算效率底下;Voxel-based实现数据对应的结构化,但体素的划分方式对点云的信息损失h有很大影响;View-based实现了紧凑的特征表征,可以通过2D conv完成后续任务,但是投影本身就破坏了原有的3D结构;RGB-image保留了丰富的语义信息,但缺乏空间信息。
2024-09-18 17:15:01
1102
原创 SphereFormer
采用球坐标进行特征处理,以解决立方滑动窗口对远处稀疏区域特征提取不足的问题。提出了适配的exponential-spiltting PE 和 动态特征选取机制。
2024-09-18 17:11:18
902
原创 PPT(Point Prompt Training)
作者指出大规模3D点云d数据集的缺失限制了3D相关算法的发展,一种解决方法就是联合多个数据集训练一个模型。但是不同于图像,不同点云数据之前的差异是非常大的,直接联合训练反而会带来负面收益,因此本文提出了Point Prompt Training(PPT)来解决这一问题。
2024-09-18 09:53:48
1186
原创 Point Transformer V3
本篇论文不是寻求注意力机制的新的创新,而是平衡点云处理中准确性和效率的trade-offs。借鉴3D large-scale表示学习,作者认识到模型性能更受规模scale的影响,而不是复杂设计。因此作者提出Point Transformer V3 (PTv3),优先考虑简单性和效率。例如,将KNN替换成序列化的邻域映射*。这一准则支持大规模scaling,将感受野receptive field从16个点扩展到1024个点,同时保持高效(与PTv2相比,处理速度提高了3倍,内存效率提高了10倍)。
2024-09-14 14:07:05
816
原创 ADB可以连接windows 但是无法连接虚拟机?
1.右击开始菜单–>运行->输入services.msc–>回车。2.找到 VMware USB 相关服务,点击启动。
2024-03-15 11:40:33
681
原创 浅析图像注意力机制
对于深度学习图像算法,已经内卷很严重了,没有点自注意力,新设计模块都拿不出手。借着知识整理的机会,总结一下之前了解到的图像自注意力机制,供大家八股 (不是),供大家参考学习。...
2022-06-28 15:27:15
2765
5
原创 ubuntu系统采坑合集(持续更新)
@20120785@bjtu.edu.cn算是从0学起,踩了很多坑,记录一下自己经历过的,也为大家提供一些经验。
2020-09-25 15:50:59
4832
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人