
深度学习
文章平均质量分 82
xueli1991
这个作者很懒,什么都没留下…
展开
-
谈谈深度学习中的 Batch_Size
谈谈深度学习中的 Batch_Size Batch_Size(批尺寸)是机器学习中一个重要参数,涉及诸多矛盾,下面逐一展开。 首先,为什么需要有 Batch_Size 这个参数? Batch 的选择,首先决定的是下降的方向。如果数据集比较小,完全可以采用全数据集 ( Full Batch Learning )的形式,这样做至少有 2 个好处:其一,由全数据集确定的方向能够更好地代表样本总转载 2016-09-01 16:14:38 · 10714 阅读 · 0 评论 -
交叉熵代价函数
1.从方差代价函数说起 代价函数经常用方差代价函数(即采用均方误差MSE),比如对于一个神经元(单输入单输出,sigmoid函数),定义其代价函数为: 其中y是我们期望的输出,a为神经元的实际输出【 a=σ(z), where z=wx+b 】。 在训练神经网络过程中,我们通过梯度下降算法来更新w和b,因此需要计算代价函数对w和b的导数: 然后更新w、b:转载 2016-09-01 17:33:34 · 402 阅读 · 0 评论 -
正则化方法:L1和L2 regularization、数据集扩增、dropout
本文是《Neural networks and deep learning》概览 中第三章的一部分,讲机器学习/深度学习算法中常用的正则化方法。(本文会不断补充) 正则化方法:防止过拟合,提高泛化能力 在训练数据不够多时,或者overtraining时,常常会导致overfitting(过拟合)。其直观的表现如下图所示,随着训练过程的进行,模型复杂度增加,在training转载 2016-09-01 17:40:52 · 549 阅读 · 0 评论 -
DeepLearning tutorial(1)Softmax回归原理简介+代码详解
DeepLearning tutorial(1)Softmax回归原理简介+代码详解 @author:wepon @blog:http://blog.youkuaiyun.com/u012162613/article/details/43157801 本文介绍Softmax回归算法,特别是详细解读其代码实现,基于Python theano,代码来自:Classif转载 2016-09-01 21:53:07 · 448 阅读 · 0 评论