- 博客(11)
- 资源 (2)
- 收藏
- 关注
原创 CUDA学习笔记(一)
说明: 1.此乃本人学习CUDA过程中的笔记,如有错误,欢迎指出⁄(⁄ ⁄•⁄ω⁄•⁄ ⁄)⁄。 2.由于我是初学,对CUDA的理解不多,排版不佳,还请原谅。(哎,高中作文都写不利索) 3.每日一问:今天你买到显卡了吗[○・`Д´・ ○]?一.核函数 作用:实现主机(CPU)对设备(GPU)的调用 声明形式:__global__ void hello_from_gpu(){ printf("Hello World from the GPU!\n");} 注:
2021-04-01 10:40:17
695
原创 PyTorch学习笔记(4)——detach、ones_like、meshgrid
1.detach() 作用:从当前网络分离出一个Tensor,值和原变量相同,但是不需要计算梯度。 注意:返回的Tensor和原变量共享内存。两者的原地修改均不可见,而且可能会触发正确性检查的错误。对返回的Tensor的修改不会引起原变量的修改,但会触发错误。 参考:PyTorch官方文档...
2021-03-30 19:43:54
428
1
原创 PyTorch学习笔记(2)——randn_like()、layout、memory_format
提醒自己要填的坑: torch.memory_format torch.preserve_format1.randn_like()torch.randn_like(input, *, dtype=None, layout=None, device=None, requires_grad=False, memory_format=torch.preserve_format) -> Tensor 返回一个和输入大小相同的张量,其由均值为0、方差为1的标准正态分布填充。即torch.ra
2021-03-18 10:25:08
16588
原创 PyTorch学习笔记(1)——permute、randint、DataLoader
说明:1.这是我在学习过程中的笔记,可能会有错误,欢迎各位读者指出错误(不要因为我是娇花而联系我(╹▽╹))2.提醒自己要填的坑: torch.set_default_tensor_type() torch.layout torch.strided1.permute()意义:更改张量维度的排列import torchimport numpy as npa = np.array([[[0, 1, 2],[3, 4, 5]]])input =
2021-03-12 17:42:28
869
原创 PointNet++论文笔记
说明:1.此乃本人阅读论文过程中所记录的笔记,由于本人水平有限,难免会出现遗漏重点或表述不清等问题,请各位见谅。同时希望各位指出我的问题,让我发现问题所在,谢谢大家Thanks♪(・ω・)ノ。2.有些用词根据原文翻译(或是直接用原文),可能语句不通畅。(毕竟我是一个六级考了五次的憨憨)3.数据处理部分和结论分析部分没有加入,此处主要为了理清文章描述方法的处理流程。论文题目:PointNet++: Deep Hierarchical Feature Learning on Point Sets in
2021-03-12 10:06:05
463
4
原创 PointNet论文笔记
说明:1.此乃本人阅读论文过程中所记录的笔记,由于本人水平有限,难免会出现遗漏重点或表述不清等问题,请各位见谅。同时希望各位指出我的问题,让我发现问题所在,谢谢大家Thanks♪(・ω・)ノ。2.有些用词根据原文翻译(或是直接用原文),可能语句不通畅。(毕竟我是一个六级考了五次的憨憨)3.数据处理部分和结论分析部分没有加入,此处主要为了理清文章描述方法的处理流程。论文原题:PointNet: Deep Learning on Point Sets for 3D Classification and
2021-03-12 10:05:47
270
原创 深度学习的激活函数(包含绘图代码)
1.为什么使用激活函数? 提高神经网络的非线性表示能力。如果不使用非线性的激活函数,那么在神经网络中每一层的输出都是上一层输入的线性表示。那么即使不断增加网络的深度也还是线性映射,难以模拟实际模型的非线性情形。引入非线性的激活函数,使得神经网络可以逼近非线性模型。2.常用激活函数 (1)sigmoid函数 表达式:f(x)=sigmoid(x)=11+e−xf(x)=sigmoid(x)=\frac{1}{1+e^{-x}}f(x)=sigmoid(x)=1+e−x1 函数图像如下: .
2021-03-12 10:05:10
1024
1
原创 Pytorch之归一化层(BatchNorm、LayerNorm、InstanceNorm、GroupNorm)
BN,LN,IN,GN从学术化上解释差异:BatchNorm:batch方向做归一化,算NHW的均值,对小batchsize效果不好;BN主要缺点是对batchsize的大小比较敏感,由于每次计算均值和方差是在一个batch上,所以如果batchsize太小,则计算的均值、方差不足以代表整个数据分布LayerNorm:channel方向做归一化,算CHW的均值,主要对RNN作用明显;InstanceNorm:一个channel内做归一化,算H*W的均值,用在风格化迁移;因为在图像风格化中,生成结果主要
2021-03-05 22:46:20
2559
原创 Deep shape-aware descriptor论文笔记
说明:1.此乃本人阅读论文过程中所记录的笔记,由于本人水平有限,难免会出现遗漏重点或表述不清等问题,请各位见谅。同时希望各位指出我的问题,让我发现问题所在,谢谢大家Thanks♪(・ω・)ノ。2.有些用词根据原文翻译(或是直接用原文),可能语句不通畅。(毕竟我是一个六级考了五次的憨憨)3.数据处理部分和结论分析部分没有加入,此处主要为了理清文章描述方法的处理流程。 1.重要概念介绍 拉普拉斯-贝尔特拉米算子(Laplace-Beltrami operator,LBO):
2021-03-02 22:48:25
665
原创 DeepSD论文笔记
说明:1.此乃本人阅读论文过程中所记录的笔记,由于本人水平有限,难免会出现遗漏重点或表述不清等问题,请各位见谅。同时希望各位指出我的问题,让我发现问题所在,谢谢大家Thanks♪(・ω・)ノ。2.有些用词根据原文翻译(或是直接用原文),可能语句不通畅。(毕竟我是一个六级考了五次的憨憨)3.数据处理部分和结论分析部分没有加入,此处主要为了理清文章描述方法的处理流程。论文题目:3D Deep Shape Descriptor1.重要概念介绍 三维特征描述符(3D shape signat
2021-03-01 16:13:59
839
原创 PointCNN论文笔记
说明:1.此乃本人阅读论文过程中所记录的笔记,由于本人水平有限,难免会出现遗漏重点或表述不清等问题,请各位见谅。同时希望各位指出我的问题,让我发现问题所在,谢谢大家Thanks♪(・ω・)ノ。2.有些用词根据原文翻译(或是直接用原文),可能语句不通畅。(毕竟我是一个六级考了五次的憨憨)3.数据处理部分和结论分析部分没有加入,此处主要为了理清文章描述方法的处理流程。待填的坑:[32]Hyeonwoo Noh, Seunghoon Hong, and Bohyung Han. Learning dec
2021-03-01 15:30:48
297
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人