对theano求导的时候的一个疑问

本文深入探讨了神经网络中梯度计算的不同方法,对比了使用列表扩展与梯度函数两种方式计算梯度的效果。通过具体实例说明了这两种方法在计算参数梯度时的区别与应用场景。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

假定我们有下面下面4个参数w1,w2,b1,b2以及对应的cost。我看到早些版本的求导是这么写的

params1 = [w1,b1]

params2 = [w2,b2]

params = params1.extend(params2)

gparams = [(T.grad(cost, param) for param in params)]


还有一种是

gparams = T.grad(cost, params)


我个人觉得是没有区别

评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值