tensorflow中softmax激活函数与交叉熵损失函数相结合

本文详细解析了在TensorFlow中如何使用Softmax激活函数与交叉熵损失函数解决分类问题。通过实例演示了两种计算损失函数的方法:一是先进行Softmax处理再计算交叉熵;二是直接使用softmax_cross_entropy_with_logits函数。这两种方法在实际应用中等价。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

tensorflow中softmax激活函数与交叉熵损失函数相结合

求分类问题时,先使用softmax激活函数使输出符合概率分布,再用交叉熵求损失函数

tensorflow中提供了两个等价的API:

1. y_pro = tf.nn.softmax(y)

    loss1 = tf.losses.categorical_crossentropy(y_, y)

2.loss2 = tf.nn.softmax_cross_entropy_with_logits(y_, y)

 

代码演示:

import tensorflow as tf
import numpy as np

y_ = np.array([[1, 0, 0], [0, 1, 0], [0, 0, 1]]) #生成真实值y_

y = np.array([[1, 2, 3], [2, 3, 4], [3, 4, 5]]) #生成预测值y

y_pro = tf.nn.softmax(y) #使用softmax()方法,使输出符合概率分布

loss1 = tf.losses.categorical_crossentropy(y_, y_pro) #计算损失值

loss2 = tf.nn.softmax_cross_entropy_with_logits(y_, y) #可以同时使用softmax()方法和交叉熵来计算损失值

print("分步运算后loss1是:", loss1) #打印loss1

print("一起运算后loss2是:", loss2) #打印loss2

 

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值