
深度学习
Xu_Haocan
ZJU_ME
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
LeNet
原文地址:http://blog.youkuaiyun.com/hjimce/article/details/47323463卷积对于给定的一幅图像来说,给定一个卷积核,卷积就是根据卷积窗口,进行像素的加权求和。卷积神经网络与我们之前所学到的图像的卷积的区别,我的理解是:我们之前学图像处理遇到卷积,一般来说,这个卷积核是已知的,比如各种边缘检测算子、高斯模糊等这些,都是已经知道卷积核,然后再与图像进行卷积运算。转载 2017-10-16 16:41:41 · 945 阅读 · 0 评论 -
深度学习发展历程
MCP人工神经元模型参考链接 MCP人工神经元模型(1943年)最初是希望能够用计算机来模拟人的神经元反应的过程,该模型将神经元简化为了三个过程:输入信号线性加权,求和,非线性激活(阈值法)。如下图所示 第一次将MCP用于机器学习(分类)的当属1958年Rosenblatt发明的感知器(perceptron)算法。该算法使用MCP模型对输入的多维数据进行二分类,且能够使用梯度下降法从训练样本中自转载 2017-10-16 15:41:16 · 3151 阅读 · 0 评论 -
激活函数
参考链接SigmoidSigmoid函数曾被广泛地应用,但由于其自身的一些缺陷,现在很少被使用了。Sigmoid函数被定义为: 其函数图像为: 优点: 1.Sigmoid函数的输出映射在(0,1)之间,单调连续,输出范围有限,优化稳定,可以用作输出层。 2.求导容易。缺点: 1.由于其软饱和性,容易产生梯度消失,导致训练出现问题。 2.其输出并不是以0为中心的。饱和 当一个激活函数h(转载 2017-10-16 18:21:29 · 528 阅读 · 0 评论 -
随机神经网络之模拟退火
原文链接 在机器学习以及优化组合问题中,最常用的方法就是梯度下降法。比如BP神经网络,多层感知器的神经元(units)越多,对应的权矩阵也就越大,每个权可视为一个自由度或者变量。我们知道自由度越高,变量越多,模型越复杂,模型的能力越强。但是模型能力越强,模型就越容易过拟合,对噪声太敏感。另一方面,使用梯度下降进行最优解搜寻时,多变量的误差曲面很像是连绵起伏的山峰一样,变量越多,山峰和山谷也转载 2018-01-24 21:29:48 · 2755 阅读 · 0 评论 -
随机神经网络之玻尔兹曼机
原文链接 在机器学习以及优化组合问题中,最常用的方法就是梯度下降法。比如BP神经网络,多层感知器的神经元(units)越多,对应的权矩阵也就越大,每个权可视为一个自由度或者变量。我们知道自由度越高,变量越多,模型越复杂,模型的能力越强。但是模型能力越强,模型就越容易过拟合,对噪声太敏感。另一方面,使用梯度下降进行最优解搜寻时,多变量的误差曲面很像是连绵起伏的山峰一样,变量越多,山峰和山谷也转载 2018-01-24 22:06:44 · 1109 阅读 · 0 评论 -
受限制玻尔兹曼机(RBM)
点击打开链接转载 2018-01-25 15:48:19 · 307 阅读 · 0 评论 -
深度信念网络(DBN)
点击打开链接转载 2018-01-25 16:33:19 · 685 阅读 · 0 评论 -
数据脱敏
点击打开链接转载 2018-01-25 22:40:07 · 552 阅读 · 0 评论