梯度下降法在多输入、多输出神经网络中的应用
1. 多输入的梯度下降学习
梯度下降法同样适用于多输入的情况。下面我们详细介绍多输入梯度下降学习的过程。
1.1 构建神经网络
首先,我们定义一个简单的神经网络,它接收多个输入并进行预测。代码如下:
weights = [0.1, 0.2, -0.1]
def neural_network(input, weights):
pred = w_sum(input, weights)
return pred
def w_sum(a, b):
assert(len(a) == len(b))
output = 0
for i in range(len(a)):
output += (a[i] * b[i])
return output
1.2 预测与比较
我们使用一些示例数据进行预测,并计算误差和 delta 值。示例数据包括比赛的一些统计信息,如 toes (脚趾相关数据)、 wlrec (胜负记录)、 nfans (粉丝数量),以及比赛结果 win_or_lose_binary 。
toes = [8.5, 9.5, 9.9, 9.0]
wlrec = [0.65, 0.8, 0.8, 0.9]
n
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



