- 博客(4)
- 收藏
- 关注
原创 Softmax&Overfitting&Regulization&Dropout
Softmax&Overfitting&RegulizationSoftmax另外一种类型的输出层方程: 第一步 (和之前sigmoid一样): 第二步: (和之前sigmoid不同): softmax函数 Softmax的输出每个值都是大于等于0, 而且总和等于1,所以, 可以认为是概率分布 可以认为输出的是分类等于每个可能分类标签的概率(如 P(a(x)) = 0.8 for M
2017-03-09 20:39:03
1120
原创 cross-entropy
cross-entropy cost 神经网络的学习和人脑很不一样,刚开始很慢,后来增快 错误大时学习快,错误小时学习慢 corss-entropy 几乎总比二次cost函数好,但如果神经元方程是线性的,用二次cost函数不会有学习慢的问题
2017-03-09 15:20:28
328
原创 神经网络基本结构
MLP(MultiLayer Perceptrons) 多层神经网络 sigmoid neurons"""network.py~~~~~~~~~~A module to implement the stochastic gradient descent learningalgorithm for a feedforward neural network. Gradients are calc
2017-03-06 20:59:32
1715
原创 python numpy
numpy.atleast_2d(*arys) 把输入看成至少有两个dimension的array Parameters: arys1, arys2, … : array_like 形似数组的序列,不是数组被转为数组,dimension>=2保留 Returns: res, res2, … : ndarray An array, or list of arrays, each wit
2017-03-05 16:31:33
2017
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人