
深度学习
Roe D.
这个作者很懒,什么都没留下…
展开
-
深度学习(一)
交叉熵误差 和 softmax 函数都有算概率和标签化的功能 反方向传播: 因为正向传播都关系到 多个权重W,求偏导其实就是 E(误差)关于W权重的导数,对W求导,意义就是:w的变动对E影响的贡献程度的大小 又W 是W1 W2 等的一个总关系,他们通过链式法则串起来的像个递归。 通过梯度法确定试W的方向,学习就是反复将试W, #sigmoid 激活函数 import numpy as np def...原创 2019-07-09 21:05:42 · 498 阅读 · 0 评论 -
两层神经网络的实现
import sys ,os sys.path.append(os.pardir) from common.layers import *#layers保存神经网络的层的有序字典/155 from common.gradient import numerical_gradient#梯度 from collections import OrderedDict class TwolayeNet: ...原创 2019-07-09 21:16:16 · 1489 阅读 · 0 评论