一次性学习多个权重:梯度下降的泛化
1. 多输入的梯度下降学习
梯度下降同样适用于多输入的情况。下面我们来详细了解多输入网络是如何学习的。
首先,我们有一个多输入的空网络,其权重初始化为 weights = [0.1, 0.2, -0.1] ,对应的代码如下:
weights = [0.1, 0.2, -0.1]
def neural_network(input, weights):
pred = w_sum(input, weights)
return pred
def w_sum(a, b):
assert(len(a) == len(b))
output = 0
for i in range(len(a)):
output += (a[i] * b[i])
return output
接下来是预测和比较的步骤:
toes = [8.5, 9.5, 9.9, 9.0]
wlrec = [0.65, 0.8, 0.8, 0.9]
nfans = [1.2, 1.3, 0.5, 1.0]
win_or_lose_binary = [1, 1, 0, 1]
true = win_or_lose_binary[0]
input = [toes[0], wlrec[0], nfans[0]]
pred = neural_network(input, weights)
error = (pred - true)
超级会员免费看
订阅专栏 解锁全文
36万+

被折叠的 条评论
为什么被折叠?



