tf.losses 模块

本文详细介绍了TensorFlow的tf.losses模块,包括常用的损失函数如absolute_difference、hinge_loss、softmax_cross_entropy等,并以softmax_cross_entropy为例,解释了参数含义和使用方法,特别提到了label_smoothing和reduction参数的作用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

写在前面

本文是介绍tf.losses 模块(实际就是对tf.nn.下面的loss函数的高级封装)。之前本人常用slim.losses.XXX(),但强迫症发作受不每次都提示:

"2016-12-30. Use tf.losses.sigmoid_cross_entropy instead."
"2016-12-30. "Use tf.losses.softmax_cross_entropy instead." 
......

于是乎换了tf.losses. 下的loss实现函数,刚用还是遇到坑,故写此文,总结下经验,如有错误,欢迎指正。

正文

首先放出tensorflow的官方的api:官网API

此模块下主要的Functions有:

absolute_difference(): 为训练过程添加一个“绝对差异”loss,其实就是做差后取绝对值作为loss。

add_loss(): 为loss集合添加额外定义的loss。

compute_weighted_loss(): 计算加权loss。

cosine_distance(): Adds a cosine-distance loss to the training procedure. (deprecated arguments)

get_losses(): 从loss集合中获取loss列表。

get_regularization_loss(): 获取整体的正则化loss。

get_regularization_losses(): 获得正则化loss列表。

get_total_loss(): 返回其值表示总损失的张量。

hinge_loss(): 为训练过程添加一个hinge los

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值