深度学习
Grit_007
每天进步一点点。
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
深度学习入门—理论杂谈(1)
前言写文章比较随性,主要是个人学习资料的重点笔记的记录,这是关于深度学习的,学习的目的是打牢深度学习的理论基础。书籍链接:http://neuralnetworksanddeeplearning.com/index.html第一章1、感知机模型网络:说它强大是因为其计算能力可以像其他任何计算设备一样,说其普通是因为它本质上不过是逻辑门而已,实现的都是各种等价的逻辑操作。2、Sigmoid...原创 2018-10-31 11:00:51 · 429 阅读 · 0 评论 -
解决Linux环境下GPU运行Paddlepaddle找不到libcublas.so文件问题
前言最近百度开源了用paddle框架实现的用于做语义分割的deeplabv3+模型,正好自己也在做这方面的事情,所以就把模型拿过来跑一下inference,结果是各种采坑,所以记录下来,以后便于查阅!1、首先需要在Linux上面安装GPU版本的paddle,我用的是pip安装的,感觉docker太麻烦。 安装命令: pip install paddlepaddle-gpu 此命名默认安装的...原创 2018-12-14 11:27:25 · 11695 阅读 · 6 评论 -
机器/深度学习中的特征工程
版权声明:本文为博主原创文章,转载请注明来源。 https://blog.youkuaiyun.com/Dream_angel_Z/article/details/49388733 本文是一篇关于特征工程的总结类文章,如有不足之处或理解有偏差的地方,还望大家多多指点。首先,给...转载 2018-12-08 18:14:45 · 1286 阅读 · 2 评论 -
空间金字塔模型与池化
前言原来一切如此简单与神奇!论文: 《Spatial Pyramid Pooling in Deep Convolutional Networks for Visual Recognition》 本篇博文主要讲解大神何凯明2014年的paper:《Spatial Pyramid Pooling in Deep Convolutional Networks for Vis...原创 2018-11-19 17:42:34 · 5924 阅读 · 1 评论 -
Pytorch框架中的可视化模块—tensorboardX
前言首先说明一下,tensorboardX的用法和tensorboard是十分类似的,后者是TensorFlow框架中的可视化工具。TensorFlow是2016年Google推出的深度学习框架,而pytorch是2017年FaceBook推出的深度学习框架,其接口和设计都比TensorFlow要灵活简单的多,属于后起之秀。1、若读者想看关于TensorFlow的tensorboard的系列教...转载 2018-11-19 15:09:52 · 993 阅读 · 0 评论 -
CNN结构演化
前言文章仅给出各个模型的大概结构,详细内容请参考相关的论文及博客,在文章中我也会推荐一些资料。一、早期尝试—1998 LeNet 网络结构详细介绍和代码实现请参考这里:LeNet二、历史突破—2012 AlexNet这是其网络结构,看着比较抽象,我们可以结合具体实现代码来看一下模型结构Sequential容器封装了这个模型的结构,可以很清楚的看到每一层都是用了什么,无非就是卷积层...原创 2018-11-20 17:45:13 · 1140 阅读 · 0 评论 -
Deeplabv3+论文学习笔记粗略总结
1、在本文中,我们考虑了两种使用空间金字塔池模块[18,19,20]或编码器解码器结构[21,22]进行语义分割的神经网络,前者通过不同分辨率的池化特征获取丰富的上下文信息,后者能够获得清晰的对象边界。2、我们提出的模型DeepLabv3+通过添加一个简单而有效的解码器模块来恢复对象边界,扩展了DeepLabv33、batchsize越小,速度越快,权值更新越频繁;且具有随机性,对于非凸损失函...原创 2018-11-13 18:02:12 · 5395 阅读 · 0 评论 -
深度学习入门—理论杂谈(5)
前言这部分内容是书上的第六章内容,主要讲的是卷积网络,当然也是最重要的一章。先验概率是指根据以往经验和分析得到的概率,如全概率公式 中的 ,它往往作为“由因求果”问题中的“因”出现。后验概率是指在得到“结果”的信息后重新修正的概率,是“执果寻因”问题中的“因” 。后验概率是基于新的信息,修正原来的先验概率后所获得的更接近实际情况的概率估计。一、卷积网络的结构1、卷积神经⽹络采⽤了三种基本概...原创 2018-11-08 12:11:04 · 381 阅读 · 0 评论 -
深度学习入门—理论杂谈(4)
前言第四章讲述的是一个定理的证明:神经网络可以计算任何函数,通俗点来说就是不管别人给你一个多么复杂和奇特的函数,总会确保有一个神经网络对任何可能的输入x ,其值f(x)是这个网络的输出(或者说足够的近似)。这个定理说的就是神经网络的普适性,我感觉这句话是废话,如果不成立的话,我们花那么大精力研究神经网络也没有意义。因此这一章pass,有兴趣的可去原书籍上面查看证明过程。最后扔一句结论在这儿:普...原创 2018-11-05 20:47:33 · 421 阅读 · 0 评论 -
深度学习入门—理论杂谈(3)
前言此部分内容为第三章续一、过度拟合和正则化1、验证集的作用可以理解为培训数据,帮我们学习到更好的超参数(超参数是在开始学习过程之前设置值的参数,而不是通过训练得到的参数数据。通常情况下,需要对超参数进行优化,给学习机选择一组最优超参数,以提高学习的性能和效果。),其最终目的是为了防止过拟合。2、通过增加训练数据,某种程度上可以有效的减少过拟合的发生,但是训练数据可能很昂贵或难以获得,因此...原创 2018-11-05 16:55:16 · 228 阅读 · 0 评论 -
深度学习入门—理论杂谈(2)
当我们对某些事情出现严重错误时,我们往往学得最快。但是我们刚刚看到我们的人工神经元在严重错误的情况下学习有很多困难 - 比只是有点错误时要困难得多。更重要的是,事实证明,这种行为不仅发生在这个玩具模型中,而且发生在更一般的网络中。为什么学习这么慢?我们能找到避免这种放缓的方法吗?原创 2018-11-02 14:23:51 · 325 阅读 · 0 评论 -
anaconda3在win10环境下安装pytorch0.4 + cuda9.0
前言一、安装torch与torchvision初次安装的时候,没有经验,在安装CUDA时踩了很多坑,各种帖子都看了,比如去官网下载最新的驱动,用DDU将电脑上的显卡卸载干净等,最后还是没装上CUDA。果断放弃了。最后看了各种资料突然发现 ,原来使用 conda install pytorch -c pytorch 命令安装pytorch时,就默认安装了CUDA!!!天了噜,折腾了那么多时间!...原创 2018-11-01 20:21:17 · 1862 阅读 · 0 评论 -
深度学习入门—BP算法简单实现
前言算法实现的过程,我感觉就是把公式翻译成代码的过程,关于详细的算法思想介绍,已经写在了上一篇博客中:https://blog.youkuaiyun.com/Grit_007/article/details/83509548,需要参考的可以点这一个,这里重点是实现BP算法。一、代码实现我不啰嗦了,直接上代码了,因为看了理论之后,很容易就能读懂代码,而且每一行代码我都加了详细的注释。"""BP算法的简...原创 2018-10-31 15:23:00 · 833 阅读 · 0 评论 -
如何在Google官方实现的DeeplavV3+上面训练自己的数据集
环境:ubuntu 16.04 + TensorFlow 1.8.1 + cuda 9.0 + cudnn 7.0 +python2.7 tensorflow 项目链接 https://github.com/tensorflow/models.git下载后解压,所需要的工程在models/...原创 2019-03-08 16:15:25 · 874 阅读 · 0 评论
分享