
深度学习基础知识
蓉城视觉小菜鸟
东搞一下视觉,西搞一下AI,就是不务正业
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
深度学习基础(一)起源
目录 一、DP的前世 1.perceptron 2.NN 3.DP 二、DP的基础知识 1.convolution 2.padding 3.pooling 4.Flatten 5.fully connected 6.dropout 一、DP的前世 深度学习发展至今经历颇为曲折,上世纪起源,火热起来也是20世纪初的时候,具体时间如下图所示: ...原创 2019-03-05 15:39:28 · 1970 阅读 · 0 评论 -
深度学习基础(四)优化函数(梯度下降函数)
梯度下降函数也就是优化函数,在神经网络训练过程最重要的函数。重要程度类似于调校对于汽车的重要性,搭建模型和参数设置等操作=“造好了一辆汽车”,优化函数=“调校”。因为汽车最终的操控性和加速性能等指标很大程度取决于调校,调校的好的汽车操控性非常好,而调校不好的汽车开起来很难受。而优化函数也是一样,很多情况下学习模型是正确的,但是最终训练结果不如人意,往往是因为优化函数的选择错误。 目录 一、优化...原创 2019-03-08 16:09:36 · 3007 阅读 · 0 评论 -
深度学习基础(二)激活函数
激活函数(也被称为激励函数)的意义就是加入非线性因素,使得神经网络具有非线性表达的能力。其必要条件是激活函数的输入和输出都是可微的,因为神经网络要求处处可微。(可微是指函数的各个方向可导,可微大于等于可导) 一、激活函数的定义与作用 1.定义。如下图所示,激活函数一般是在神经元的输入(inputs)经过加权求和之后,还继续被一个函数作用。该函数就是激活函数。 ...原创 2019-03-11 11:16:57 · 1205 阅读 · 1 评论 -
深度学习之tensorflow (一) XORerr1 -修改
博客背景是学习《深度学习之TensorFlow》这本书籍中的作业,修改第七章的作业,把XOR-异或的错误代码修改为正确的。 主要修改有三个地方: 隐藏层一的运算从sigmoid修改为add运算; 输出层的运算修改为sigmoid(原来是什么运算忘记了。。); 将优化算法从GradientDescentOptimizer修改为牛逼的Adam算法; # -*- coding: utf-8 -...原创 2019-03-08 10:08:17 · 391 阅读 · 0 评论 -
深度学习基础(三)loss函数
loss函数,即损失函数,是决定网络学习质量的关键。若网络结构不变的前提下,损失函数选择不当会导致模型精度差等后果。若有错误,敬请指正,Thank you! 目录 一、loss函数定义 二、常见的loss算法种类 1.MSE(均值平方差) 2.交叉熵 三、总结 四、tensorflow相应函数 1.MSE 2.交叉熵 一、loss函数定义 loss函数的作用就是描述模...原创 2019-03-13 09:18:33 · 27194 阅读 · 0 评论 -
深度学习之pytorch(一) 环境安装
快2周没更新博客了,别问为什么!我才不会告诉你忙的飞起!说心里话,个人更喜欢用tensorflow来做深度学习! 一、环境配置 1.win10 64位系统; 2.anaconda3; 3.不管是CPU还是GPU具有(服务器是GPU,自己的笔记本是CPU版本) 二、安装 安装比较简单,由于之前也是基于anaconda3安装的tensorflow,现在也是照本宣科。这一步不了解的可以参照之...原创 2019-03-25 15:06:26 · 2181 阅读 · 1 评论