10、前馈神经网络中梯度下降变体及相关技术详解

前馈神经网络中梯度下降变体及相关技术详解

在深度学习领域,梯度下降算法是一种常用的优化算法,用于最小化损失函数。本文将详细介绍梯度下降的几种变体,包括随机梯度下降(SGD)、小批量梯度下降(Mini - Batch Gradient Descent),并探讨权重初始化、高效添加多层网络等相关技术。

1. 随机梯度下降(SGD)

随机梯度下降是梯度下降的一种变体,它每次只使用一个样本进行参数更新。以下是一段SGD的代码示例:

cost_ = sess.run(cost, feed_dict={ X:features,
                                   Y: classes,
                                   learning_rate: 0.0001})
cost_history = np.append(cost_history, cost_)
if (epoch % 50 == 0):
    print("Reached epoch",epoch,"cost J =", cost_)

运行这段代码,会得到类似以下的结果:

Reached epoch 0 cost J = 0.31713
Reached epoch 50 cost J = 0.108148
Reached epoch 100 cost J = 0.0945182

需要注意的是,由于权重和偏置是随机初始化的,每次运行的具体

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符  | 博主筛选后可见
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值