Tensorflow学习笔记(1) 利用函数修饰符@tf.custom_gradients自定义函数梯度

本文介绍了Tensorflow中的@tf.custom_gradients修饰符,用于解决因数值不稳定性导致的梯度计算问题。通过示例代码展示如何自定义函数及其梯度,确保计算机可以准确计算导数。最终,通过一个复合函数的例子,验证了自定义梯度的正确性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

在tensorflow v1.12中,新定义了一个修饰符函数tf.custom_gradients,用于封装自定义的函数-导数对。

有时候我们想使用tensorflow去计算一些函数的梯度,但会碰到如下情况

def log1pexp(x):
    e = tf.exp(x)
    return tf.log(1+e)

x = tf.constant(100.)
y = log1pexp(x)
dy = tf.gradients(y,x)

with tf.Session() as sess:
    print(sess.run(dy))

运行这段代码,命令行输出为

[nan]

这是因为数据具有不稳定性(numerical instability)。为了使计算机仍然能够输出这个导数,我们需要给出一个计算机能”hold“住的表达式,这里先上代码,再做解释:

@tf.custom_gradient
def log1pexp(x):
    e = tf
评论 3
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值