梯度下降:多输入、多输出与权重学习
1. 多输入的梯度下降学习
1.1 网络结构与预测
多输入的梯度下降学习是可行的。下面是一个多输入网络的示例代码:
weights = [0.1, 0.2, -0.1]
def w_sum(a,b):
assert(len(a) == len(b))
output = 0
for i in range(len(a)):
output += (a[i] * b[i])
return output
def neural_network(input, weights):
pred = w_sum(input,weights)
return pred
toes = [8.5 , 9.5, 9.9, 9.0]
wlrec = [0.65, 0.8, 0.8, 0.9]
nfans = [1.2 , 1.3, 0.5, 1.0]
win_or_lose_binary = [1, 1, 0, 1]
true = win_or_lose_binary[0]
input = [toes[0],wlrec[0],nfans[0]]
pred = neural_network(input,weights)
error = (pred - true) ** 2
delta = pred - true
这个网络接收三个输入( toes 、 wlrec 、 nfans ),并根据权重计算预测值,然后计算误差和
超级会员免费看
订阅专栏 解锁全文
7312

被折叠的 条评论
为什么被折叠?



