深度学习:tensorflow基础知识,损失函数

本文介绍了TensorFlow的计算图概念,强调其数据流图的性质,并详细探讨了两种损失函数——交叉熵损失和均方误差(MSE)在神经网络中的应用。交叉熵损失用于分类问题,尤其是与softmax一起使用,而MSE适用于回归问题。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

一、tensorflow的计算图

Tensorflow是一个通过计算图的形式来表述计算的编程系统,计算图也叫数据流图,可以把计算图看做是一种有向图,Tensorflow中的每一个节点都是计算图上的一个Tensor, 也就是张量,而节点之间的边描述了计算之间的依赖关系(定义时)和数学操作(运算时)。

a=x*y; b=a+z; c=tf.reduce_sum(b);

二、tensorflow 中的 损失函数的区别

1、交叉熵loss  

给定两个概率分布p和q,通过q来表示p的交叉熵为:

从上述公式可以看出交叉熵函数是不对称的,即H(p,q)不等于H(q,p)。

交叉熵刻画的是两个概率分布之间的距离,它表示通过概率分布q来表示概率分布p的困难程度。所以使用交叉熵作为

神经网络的损失函数时,p代表的是正确答案,q代表的是预测值。当两个概率分布越接近时,它们的交叉熵也就越小。

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值