神经网络预测与学习入门
1. 预测之上的预测
神经网络可以进行堆叠。可以将一个网络的输出作为另一个网络的输入,这会导致两次连续的向量 - 矩阵乘法。对于某些复杂数据集(如图像分类),单一权重矩阵难以捕捉其中的复杂模式,所以这种堆叠方式是有必要的。
以下是一个具有多个输入和输出的空网络示例代码:
# toes % win # fans
ih_wgt = [
[0.1, 0.2, -0.1], # hid[0]
[-0.1, 0.1, 0.9], # hid[1]
[0.1, 0.4, 0.1] # hid[2]
]
# hid[0] hid[1] hid[2]
hp_wgt = [
[0.3, 1.1, -0.3], # hurt?
[0.1, 0.2, 0.0], # win?
[0.0, 1.3, 0.1] # sad?
]
weights = [ih_wgt, hp_wgt]
def vect_mat_mul(input, weights):
# 这里假设已经实现了向量 - 矩阵乘法函数
pass
def neural_network(input, weights):
hid = vect_mat_mul(input, weights[0])
pred = vect_mat_mul(hid, weights[1])
return pred
toes = [8.5, 9.5, 9.9, 9.0]
wlrec = [0.65, 0.8, 0.8, 0.9]
nfans = [1.2, 1.3, 0.5, 1.
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



