
神经网络与深度学习
文章平均质量分 89
无
LilyZJ
这个作者很懒,什么都没留下…
展开
-
深度学习知识点总结
深度学习知识点总结原创 2019-10-16 08:57:12 · 183 阅读 · 0 评论 -
图像质量评价和人脸素描合成
主要知识点图像质量评价人脸素描合成图像质量评价人脸素描合成原创 2019-10-16 09:03:47 · 518 阅读 · 1 评论 -
梯度下降(gradient descent)原理
目标:解决多变量函数的最优化问题例如神经网络中的损失函数(loss function):C(w,b)=12n∑x∥y(x)−a∥2C(w,b)=\frac{1}{2n}\sum_{x}\|y(x)-a\|^2C(w,b)=2n1x∑∥y(x)−a∥2其中www和bbb为网络的参数,xxx为训练样本,nnn为训练样本的数目,y(x)y(x)y(x)为网络的期望输出,aaa为网络的实际输出,...原创 2019-03-20 23:39:52 · 624 阅读 · 0 评论 -
典型卷积神经网络
VGG问题1:为什么2个3×3的卷积核可以替代1个5×5卷积核VGG16相比AlexNet的一个改进是采用连续的几个3×3的卷积核替代AlexNet中较大的卷积核,(1)在保证具有相同感知野的条件下,进一步减少参数量,(2)同时增加了网络深度,在一定程度上提升了神经网络性能。例如2个3×3的卷积核的感知野与1个5×5的卷积核的感知野相同,如图所示 [1] 。[1]: https://blo...原创 2019-04-15 16:12:41 · 878 阅读 · 0 评论 -
Caffe篇
参考文献:Caffe从入门到精通01Windows上快速编译caffe CPU版本原创 2019-04-20 00:20:54 · 174 阅读 · 0 评论 -
深度学习的优化算法总结
深度学习优化算法总结1、SGD2、SGD with Momentum3、SGD with Nesterov Acceleration在深度学习领域,优化算法的选择是重中之重。梯度下降算法是目前神经网络中使用最广泛的优化算法之一。为了弥补朴素梯度下降的缺陷,又出现了SGD、SGD with Momentum、Adam、NAdam等。深度学习优化算法经历了SGD->SGDM->NAG...原创 2019-05-19 13:08:57 · 792 阅读 · 0 评论 -
记深度学习框架安装血泪史
记深度学习框架安装血泪史1、pytorch1、pytorchOS:ubuntu16.04gpu: GTX 1080Ticuda: 9.0 (系统预装+cudnn)pytorch官网:https://pytorch.org/官网给出的安装命令是:conda install pytorch torchvision cudatoolkit=9.0 -c pytorch(此处有个小说明,由于...原创 2019-05-09 22:39:35 · 1191 阅读 · 1 评论 -
卷积和上采样
参考文献:[1] 反卷积(Deconvolution)、上采样(UNSampling)与上池化(UnPooling)原创 2019-05-17 11:17:31 · 3797 阅读 · 0 评论 -
PyTorch入门学习
PyTorch入门学习PyTorch 是一个基于Torch的Python 开源机器学习库,提供GPU加速的张量计算以及自动求导的深度神经网络功能。原创 2019-06-18 20:37:39 · 207 阅读 · 0 评论