深度学习
文章平均质量分 95
随便记记...
Lemon_Yam
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
GNN 极简入门
本文是学习 GNN 时所做的笔记,包含图基本知识(连通图、几种图的中心性、几个常见矩阵)、GNN 简介(简单讲解了GNN的定义和一些任务)和 PyTorch Geometric 极简入门代码原创 2022-12-20 20:09:45 · 1297 阅读 · 1 评论 -
4D 语义分割——TemporalLidarSeg
本文是阅读 3DV 2020论文《LiDAR-based Recurrent 3D Semantic Segmentation with Temporal Memory Alignment》后所做笔记。论文提出一种用于时间序列点云的循环分割体系结构,并利用时间依赖性来提高分割结果。此外,论文还提出一种用于相邻帧之间时间记忆的对齐策略以及一种自适应的投影方法原创 2022-10-11 20:41:19 · 1502 阅读 · 0 评论 -
4D 语义分割——SpSequenceNet
本文是阅读CVPR2020文章《SpSequenceNet: Semantic Segmentation Network on 4D Point Clouds》后所作笔记,论文主要讲述的是一个 4D 语义分割网络,即在平时的 3D 语义分割中引入了时间维度。该网络采用 U-net 的设计架构,并引入了跨帧全局注意力模块 CGA 和跨帧局部插值模块 CLI 来捕获 4D 点云中的时空信息。原创 2022-10-01 22:18:36 · 1470 阅读 · 0 评论 -
3D 语义分割——RPVNet
本文是阅读 CVPR2021 论文《RPVNet: A Deep and Efficient Range-Point-Voxel Fusion Network for LiDAR Point Cloud Segmentation》所做笔记。首先简要介绍了 3D 语义分割中三种不同的视图,然后再详细地介绍了 RPVNet 的网络结构。原创 2022-09-19 15:11:15 · 2310 阅读 · 5 评论 -
3D 语义分割——(AF)2-S3Net
本文章是阅读 CVPR2021 论文《(AF)2-S3Net: Attentive Feature Fusion with Adaptive Feature Selection for Sparse Semantic Segmentation Network》后所作笔记。文章首先简要地介绍了其网络主体结构,然后再对其2个模块 AF2M 和 AFSM 进行详细介绍,最后再简单的列出了其损失函数。原创 2022-08-24 10:47:04 · 2607 阅读 · 1 评论 -
3D 语义分割——SQN
本文是阅读 ECCV2022 论文《SQN: Weakly-Supervised Semantic Segmentation of Large-Scale 3D Point Clouds》以及 CVPR2020 论文《RandLA-Net: Efficient Semantic Segmentation of Large-Scale Point Clouds》后所作笔记。文章先简单地介绍了弱监督的 3D 语义分割现状,然后再简要地介绍了SQN的网络结构,最后结合 RandLA-Net 详细地了LFA结构。原创 2022-08-24 23:59:15 · 4266 阅读 · 0 评论 -
3D 语义分割——2DPASS
本文是阅读 ECCV2022 论文《2DPASS: 2D Priors Assisted SemanticSegmentation on LiDAR Point Clouds》后所作笔记,该论文主要讲述利用相机的二维先验信息来辅助三维语义分割,并提出多尺度融合到单知识蒸馏 MSFSKD 策略,从而提升了 3D 语义分割的性能.........原创 2022-08-03 00:04:59 · 4343 阅读 · 0 评论 -
3D 语义分割——Scribble-Supervised LiDAR Semantic Segmentation
本文是阅读 CVPR2022 Oral 论文《Scribble-Supervised LiDAR Semantic Segmentation》后所作笔记。本文首先简要地概括了这篇论文地主要贡献,然后简单地介绍了论文提出的数据集 ScribbleKITTI,最后对其提出的 pipeline 进行相对详细的介绍。文末附有论文及其相应代码的地址。...原创 2022-07-22 20:23:49 · 4378 阅读 · 0 评论 -
3D语义分割——PVD
本文是阅读 CVPR2022 中的论文《Point-to-Voxel Knowledge Distillation for LiDAR Semantic Segmentation》后所做的笔记。本文首先简要的介绍了 PVD 的主要贡献,然后对其网络结构和损失函数进行简单的介绍,文末附有论文及其相应代码的地址。......原创 2022-07-19 22:41:03 · 1826 阅读 · 0 评论 -
3D 目标检测——IA-SSD
本文是阅读 CVPR 2022 Oral 上的论文 Not All Points Are Equal 后做的笔记,首先简要地介绍当前目标检测中采样过程存在的问题以及 IA-SSD 的优势,然后再详细地介绍 IA-SSD 的网络结构(包括圆实例感知下采样、上下文质心感知模块、建议生成头部),最后再简单地介绍了该网络的损失函数。文末附有论文和代码地址。...原创 2022-07-06 14:19:01 · 5435 阅读 · 10 评论 -
3D 语义分割——Cylinder3D
本文是阅读论文 Cylinder3D 后做的笔记,首先简要地介绍了 Cylinder3D 网络结构,然后再详细地介绍该网络中的组成部件(包括圆柱形划分方法、非对称三维卷积网络、point-wise refinement 模块),最后再简单地介绍了该网络的损失函数。文末附有论文和代码地址,以及相关补充的文章。......原创 2022-07-06 13:14:37 · 3556 阅读 · 1 评论 -
单目 3D 目标检测——SMOKE
本文是阅读单目 3D 目标检测论文 SMOKE 后的记录,首先简单介绍了 SMOKE 这篇论文的工作,然后简要地介绍了其网络结构以及损失函数,最后展示该方法的检测结果原创 2022-05-23 22:53:35 · 5570 阅读 · 6 评论 -
神经辐射场 3D 重建——NeRF
本文是阅读 ECCV2020 论文 NeRF 后所做的笔记。文章首先对论文中 5D 坐标的理解做出相关图示,然后对“世界-相机-图像”三种坐标系的转换以及常见图像质量评估指标进行简单阐述,接着对 NeRF 的网络结构进行详细解释(包括网络主体流程、体渲染、位置编码、多层级采样、损失函数),最后通过训练代码展示训练后的结果原创 2022-05-22 14:54:19 · 9925 阅读 · 3 评论 -
局部语义地图构建——HDMapNet
HDMapNet 是清华大学 MARS Lab 提出的一个构建局部语义地图的方法,该方法为减轻标注、维护高精度地图的资源消耗。本文先简要阐述高精度地图的部分概念,接着简单阐述了 HDMapNet 的主要框架,文末附有 HDMapNet 项目地址原创 2022-05-22 15:12:20 · 8340 阅读 · 0 评论 -
单阶段多人 2D 人体估计算法——KAPAO
KAPAO 为 21 年滑铁卢大学提出的不使用热图的 2D多人人体姿态估计算法,其速度在不使用 TTA 下明显优于近期算法。本文先简述人体姿态估计的相关知识,接着简单阐述 KAPAO 算法的架构及其相关细节,最后使用论文作者的开源代码进行相关配置并运行。文中附有论文地址、代码地址以及训练好的模型的链接原创 2022-05-22 15:04:26 · 5662 阅读 · 41 评论 -
注意力机制简介
对几种注意力网络进行简单介绍原创 2021-12-21 16:59:16 · 3502 阅读 · 0 评论 -
LSTM 简介
LSTM长短期记忆网络 LSTM(long short-term memory)是 RNN 的一种变体,其核心概念在于细胞状态以及“门”结构。细胞状态相当于信息传输的路径,让信息能在序列连中传递下去。你可以将其看作网络的“记忆”。理论上讲,细胞状态能够将序列处理过程中的相关信息一直传递下去。因此,即使是较早时间步长的信息也能携带到较后时间步长的细胞中来,这克服了短时记忆的影响。信息的添加和移除我们通过“门”结构来实现,“门”结构在训练过程中会去学习该保存或遗忘哪些信息。遗忘门:决定应丢弃或保留哪些原创 2021-12-16 00:16:13 · 51646 阅读 · 3 评论 -
GAN 简介
GAN原理:GAN 的主要灵感来源于博弈论中零和博弈的思想,应用到深度学习神经网络上来说,就是通过生成网络 G(Generator)和判别网络 D(Discriminator)不断博弈,进而使 G 学习到数据的分布,如果用到图片生成上,则训练完成后,G 可以从一段随机数中生成逼真的图像。G 是一个生成网络,其输入为一个随机噪音,在训练中捕获真实数据的分布,从而生成尽可能真实的数据并让 D 犯错D 是一个判别网络,判别生成的数据是不是“真实的”。它的输入参数是 x,输出 D(x) 代表 x 为真原创 2021-12-16 00:04:11 · 4421 阅读 · 0 评论 -
部分梯度下降算法简述
目录Gradient Descent批量梯度下降(BGD)随机梯度下降(SGD)小批量梯度下降(MBGD)小结MomentumNAGAdagradAdadeltaRMSpropAdamGradient Descent梯度下降算法是通过沿着目标函数 J(θ) 的梯度(一阶导数)相反方向来不断更新模型参数来到达目标函数的极小值点(收敛),学习率为η。当目标函数具有多个参数,则使用相应的偏导若目标函数为J(Θ)且Θ=(θ1,θ2,...,θi),则第j个参数的梯度为∂J(Θ)∂θj若目标函数为 J(\T原创 2021-12-15 23:56:20 · 908 阅读 · 0 评论 -
EfficientNet 简介
EfficientNet单独适当增大深度、宽度或分辨率都可以提高网络的精确性,但随着模型的增大,其精度增益却会降低。此外,这三个维度并不是独立的(如:高分辨率图像需要更深的网络来获取更细粒度特征等),需要我们协调和平衡不同尺度的缩放,而不是传统的一维缩放。EfficientNet 的设想就是能否设计一个标准化的卷积网络扩展方法,既可以实现较高的准确率,又可以充分的节省算力资源。其通过 NAS(Neural Architecture Search)技术来搜索网络的图像输入分辨率 r,网络的深度 depth原创 2021-12-15 23:49:15 · 9365 阅读 · 0 评论
分享