
深度学习
不要陷入不同网络架构的理论中,或者纠结网络中各层的顺序,更注重实践,通过实验来回答你的问题,而不是苦思冥想,如果实验结果一开始并不理想,也不用垂头丧气,坚持做下去,直到找到适合解决问题的网络和超参数。
科学边界
这个作者很懒,什么都没留下…
展开
-
配置jupyter notebook在局域网中访问
1.生产配置文件jupyter notebook --generate-config2.生产密码jupyter notebook password显示:Enter password: **** Verify password: ****将生成的密钥拷贝配置文件echo "c.NotebookApp.password = 'sha1:***************'" >> ~/.jupyter/jupyter_notebook_config.py3.设置访问IPecho "原创 2021-07-22 20:09:50 · 1190 阅读 · 1 评论 -
深度学习06: 常用激活函数总结(sigmod,tanh,Relu等)
深度学习中几种常见的激活函数理解与总结https://www.cnblogs.com/XDU-Lakers/p/10557496.html神经网络梯度消失和梯度爆炸及解决办法https://blog.youkuaiyun.com/program_developer/article/details/80032376这文章详细分析了几个激活函数优缺点,值得分享;饱和激活函数:sigmod:优点:提供非线性激活函数缺点:1.sigmoid函数饱和,使梯度消失;2.sigmoid函数输出不是零中心(zer原创 2020-06-01 14:41:57 · 1057 阅读 · 0 评论 -
深度学习05: 谷歌Inception网络解读
构建卷积层时,你要决定卷积核的大小究竟是 1×1,3×3 还 是 5×5,或者要不要添加池化层。而 Inception 网络的作用就是代替你来决定,虽然网络架构因此变得更加复杂,但网络表现却非常好.1.Inception基本思想:同时添加多个滤波器,将每个滤波器输出叠加一起,作为总输出,让网络自己学习它需要什么样的参数,采用哪些过滤器组合。注:多个滤波器输出的维度应该相同;比如MAX-POOL采取特殊的池化层,保证输出维度28x28缺点:显而易见,Inceptin网络计算量非常庞大;以5x5卷原创 2020-05-09 16:43:41 · 546 阅读 · 0 评论 -
深度学习04: 残差网络ResNet解读
非常深的网络是很难训练的,因为存在梯度消失和梯度爆炸的问题;由于网络太深,反向传播求导相乘项较多,当激活函数导数小于1,且初始权重不大时,过多的小数项(0~1.0)相乘结果趋于0,导致梯度消失;当初始权重较大,激活函数接近1,这时容易导致梯度爆炸;远眺链接:可以从某一网络层获取激活,然后迅速反馈给另外一层,甚至是神经网络的更深层;利用远眺链接构建能够训练深度网络ResNets,有时超过100层;残差块将a[l]a^{[l]}a[l]直接向后拷贝到网络深层,a[l+2]a^{[l+2]}a[l+原创 2020-05-09 16:39:55 · 829 阅读 · 0 评论 -
深度学习03: CNN经典网络LeNet, AlexNet, VGG-16解读
计算机视觉研究中的大量研究,都集中在如何把卷积层,池化层,全连接层这些基本构件组合起来,形成有效的卷积神经网络;找感觉的最好方法之一,就是去看一些案例,就像学习编程一样,通过研究别人构建有效组件的案例,是个不错的方法;实际上,在计算机视觉任务中表现良好的神经网络框架,往往也适用于其它任务。一些经典的神经网络架构范例,当中的一些思路为现代计算机视觉技术的发展奠定了基础。经典网络:LeNet-5:AlexNetVGGResNet:152层1.LeNet-5paper:http://yann.原创 2020-05-08 19:48:29 · 1502 阅读 · 1 评论 -
深度学习02: 1x1卷积可以做什么
1x1卷积可以做什么假如输入一个6x6二维图片,过滤器尺寸为1x1x1, 做1x1的卷积,只是对输入矩阵乘以某个数字,貌似用处不大;但这仅仅是对于6x6x1的信道图片来会说1x1效果不佳;如果是一张6x6x32的图片,那么使用1x1过滤器进行卷积效果如何呢?具体来说,是遍历这36个单元,每个单元计算左边图中的32个数字和过滤器中32个数字的元素智能乘积,然后运用ReLu非线性函数;以...原创 2020-05-07 16:33:32 · 309 阅读 · 0 评论 -
深度学习01:CNN的若干基础概念
1.边缘检测常见的都有垂直方向,水平方向边缘检测,sobel算子假如把滤波器的参数,用数据自动训练,就可以得到检测任意边缘检测的滤波器2.Padding卷积计算的缺点:1.丢失边缘信息:每次做卷积运算,图像就会变小,丢弃边缘信息;2.角落边的像素,只会计算一次,而图中间的像素,会被卷积计算多次,意味着丢失了边缘许多信息;未解决这个问题,在做卷积之前,对图像先做填充输出变成 (n...原创 2020-05-06 14:49:22 · 280 阅读 · 0 评论