梯度下降在多输入、多输出神经网络中的应用
1. 多输入梯度下降学习
梯度下降算法同样适用于多输入的情况。下面我们通过一个具体的例子来详细了解其工作原理。
1.1 网络结构与预测
首先,我们有一个包含多个输入的神经网络,其权重初始化为 weights = [0.1, 0.2, -0.1] 。以下是实现该网络的代码:
def w_sum(a, b):
assert(len(a) == len(b))
output = 0
for i in range(len(a)):
output += (a[i] * b[i])
return output
weights = [0.1, 0.2, -0.1]
def neural_network(input, weights):
pred = w_sum(input, weights)
return pred
我们使用一些示例数据进行预测,这些数据代表了赛季第一场比赛的相关信息:
toes = [8.5, 9.5, 9.9, 9.0]
wlrec = [0.65, 0.8, 0.8, 0.9]
nfans = [1.2, 1.3, 0.5, 1.0]
win_or_lose_binary = [1, 1, 0, 1]
true = win_or_lose_binary[0]
input = [toes[0], wlrec[0], nfans[0]]
超级会员免费看
订阅专栏 解锁全文
2203

被折叠的 条评论
为什么被折叠?



