深度学习入门Day3--鱼书学习(2)

这俩天刚忙完答辩的事情,终于有时间学习了


一、3层神经网络实现

1.本节中的符号使用说明。

w12(1)w_{12}^{(1)}w12(1)表示前一层的第2个神经元x2x_{2}x2到后一层的第一个神经元a1a_{1}a1的权重。权重右下角按照“后一层的索引号、前一层的索引号”的顺序排列。
第一层的加权和可以表示为A(1)=XW(1)+B(1)A^{(1)}=XW^{(1)}+B^{(1)}A(1)=XW(1)+B(1)
XXX是输入层的神经元,1✖2的矩阵。
WWW是权重,大小为2✖3。
BBB是偏置,大小为1✖3。
Python实现上面公式

def sigmoid(x):
    return 1/(1+np.exp(-x))
X=np.array([1.0,0.5])
W1=np.array([[0.1,0.3,0.5],[0.2,0.4,0.6]])
B1=np.array([0.1,0.2,0.3])
#输入层到第1层
print(W1.shape)
print(X.shape)
print(B1.shape)
A1=np.dot(X,W1)+B1
Z1=sigmoid(A1)#sigmomid相当于h()
print(A1)
print(Z1)
#第1层到第2层
W2=np.array([[0.1,0.4],[0.2,0.5],[0.3,0.6]])
B2=np.array([0.1,0.2])
A2=np.dot(Z1,W2)+B2
Z2=sigmoid(A2)
print(Z2.shape)
def identity_function(x):
    return x
W3=np.array([[0.1,0.3],[0.2,0.4]])
B3=np.array([0.1,0.2])
A3=np.dot(Z2,W3)+B3
Y=identity_function(A3)
print(Y)

把代码整理一下,按照神经网络的实现习惯。

def sigmoid(x):
    return 1/(1+np.exp(-x))
def identity_function(x):
    return x
def init_network():
    network = {}
    network['W1']=np.array([[0.1,0.3,0.5],[0.2,0.4,0.6]])
    network['b1']=np.array([0.1,0.2,0.3])
    network['W2']=np.array([[0.1,0.4],[0.2,0.5],[0.3,0.6]])
    network['b2']=np.array([0.1,0.2])
    network['W3']=np.array([[0.1,0.3],[0.2,0.4]])
    network['b3']=np.array([0.1,0.2])
    return network
def forward(network,x):
    W1,W2,W3=network['W1'],network['W2'],network['W3']
    b1,b2,b3=network['b1'],network['b2'],network['b3']
    a1=np.dot(x,W1)+b1
    a2=np.dot(a1,W2)+b2
    z2=sigmoid(a2)
    a3=np.dot(z2,W3)+b3
    y=identity_function(a3)
    return y
network = init_network()
x=np.array([1.0,0.5])
y=forward(network,x)
print(y)

init_network()函数会进行权重和偏置的初始化,并将他们保存在字典变量network中。其保存了每一层所需的参数(权重和偏置)。forward()函数中则封装了将输入信号转换为输出信号的处理过程。

二、输出层设计

一般情况下,回归问题用恒等函数,分类问题用softmax函数。

  • 回归:根据某个输入预测一个(连续的)数值的问题。输入人像,预测年龄
  • 分类:判断数据属于哪一个类别,西瓜还是苹果

1.恒等函数

将输入原样输出。不加以任何改动

2.softmax

yk=exp(ak)∑i=1nexp(ai)y_{k}=\frac{exp(a_{k})}{\sum_{i=1}^n exp(a_i)}yk=i=1nexp(ai)exp(ak)
分子是输入信号a_{k}的指数函数,分母是所有输入信号的指数函数的和。
Python实现。

#a是数组
def softmax(a):
    c=np.max(a)
    exp_a=np.exp(a-c)#溢出对策
    sum_exp_a=np.sum(exp_a)
    y=exp_a/sum_exp_a
    return y
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值