tensorflow——常用损失函数

本文深入解析了交叉熵损失函数与均方误差损失函数的原理及应用,前者广泛用于分类问题,后者则常用于回归问题。文章提供了在TensorFlow中实现这两种损失函数的具体代码示例。
部署运行你感兴趣的模型镜像

交叉熵损失函数(cross entropy)

分类问题中使用比较广的一种损失函数。
刻画两个概率分布之间的距离。

给定两个概率分布p和q,通过q来表示p的交叉熵为:
在这里插入图片描述
在tensorflow中交叉熵,实现代码1:

cross_entropy= -tf.reduce_mean(y_*tf.log(tf.clip_by_value(y,1e-10,1.0)))

其中,y_表示预测值,y表示实际输出。tf.clip_by_value()函数将一个张量的数值控制在一个范围之内,可以避免一些错误,如log0无效等。
交叉熵一般与softmax回归一起使用,实现代码2:

cross_entropy = tf.nn.softmax_cross_entropy_with_logits(y,y_)

其中,y_表示预测值,y表示实际输出。该函数的功能是自动计算logits(未经过Softmax)与labels之间的cross_entropy交叉熵。

均方误差损失函数(MSE,mean squared error)

回归问题最常用的损失函数
在这里插入图片描述
使用tensorflow实现代码1:

mse = tf.reduce_mean(tf.square(y_-y))

其中,y_表示预测值,y表示实际输出。
实现代码2:

mse = tf.loss.mean_squared_error(y_,y)

其中,y_表示预测值,y表示实际输出。

您可能感兴趣的与本文相关的镜像

TensorFlow-v2.15

TensorFlow-v2.15

TensorFlow

TensorFlow 是由Google Brain 团队开发的开源机器学习框架,广泛应用于深度学习研究和生产环境。 它提供了一个灵活的平台,用于构建和训练各种机器学习模型

评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值