深度学习
ChiLi-L
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
逻辑回归的实现步骤
本博客是学习大师Andrew Ng的视频课程进行的总结。1.逻辑回归函数 先说明一下,逻辑回归实际上是一种分类方法,主要用于二分类问题,它的输出在0` 1,代表了属于某一类的概率,如下式为输入X属于第1类的概率,记为,一般在概率大于0.5时,将输出结果判为1,否则为0. (1)逻辑回归的函数形式为: (2)Z是线性变换,线性变换经过某种转换关系可以...原创 2018-05-31 12:47:34 · 15664 阅读 · 0 评论 -
浅析简单神经网络的基本原理与实现
前面一篇文章里介绍了逻辑回归,为什么会先介绍逻辑回归呢?其实是为了引出神经网络的,逻辑回归可以看作是仅含一个神经元的单层神经网络。在机器学习/CNN系列小问题(1):逻辑回归和神经网络之间有什么关系?这篇博文里直观的介绍了两者之间的关系。...原创 2018-06-01 22:07:35 · 8297 阅读 · 0 评论 -
深度学习之几种防止过拟合的方法
防止过拟合的方法主要有:正则化dropout增加训练数据提前停止训练过程1. 正则化正则化是在损失函数中加入一个额外项,使得在反向传播时能够达到权重衰减的目的。常见的正则化包括L1正则化和L2正则化,又称为L1 和L2范数 常规的损失函数:J(w,b)=1/m∑L(y^−y)J(w,b)=1/m∑L(y^−y)J (w,b) = 1/m\sum L( \hat{y} -...原创 2018-06-10 16:55:17 · 6927 阅读 · 0 评论 -
深度学习之常用的优化算法
前天写过一些内容,但是我这老年机,在我写到一半的时候卡死了···· 今天回来看,以为会有自动保存的!然而!也没有!!!自动保存去哪里了!!!!!算了,再重新记录吧~吴恩达老师的深度学习课程第二课中介绍了深度学习的常见的优化算法,包括基于梯度下降的,还有基于指数加权的~~ 一个一个记录梯度下降法的优化(Mini-Batch gradient decent)梯度下降法,是当今最...原创 2018-07-09 12:08:45 · 1166 阅读 · 0 评论 -
Keras构建深度学习模型
学的东西有点儿杂,决心把keras好好的过一遍,根据《深度学习:基于Keras的Python实践》,完成小代码,以求更加了解Keras,其实应该先去学Tensorflow,但因为刚好有书,就先看这个吧 第一个小实践是:印第安人糖尿病检测,只是为了熟悉建立模型的过程。 数据下载:https://gist.github.com/ktisha/c21e73a1bd1700294ef790c56c8a...原创 2018-06-27 21:35:26 · 4829 阅读 · 0 评论 -
python 编程中的常见错误和解决方法(持续更新)
1. 关于编码错误:报错:'gbk' codec can't decode byte 0xbb in position 18: illegal multibyte sequence原因:读入的文本采用的是gbk编码,需要转换成python能识别的编码,比如utf-8修改后能够成功运行。2. 程序运行时出现 KeyboardInterrupt 错误。报错:KeyboardIn...原创 2018-11-15 15:23:02 · 826 阅读 · 0 评论
分享