作者:陈迪豪,就职于小米,负责企业深度学习平台搭建,参与过HBase、Docker、OpenStack等开源项目,目前专注于TensorFlow和Kubernetes社区。
原文:TensorFlow四种Cross Entropy算法实现和应用,作者授权优快云转载。
欢迎技术投稿、约稿、给文章纠错,请发送邮件至heyc@youkuaiyun.com
交叉熵介绍
交叉熵(Cross Entropy)是Loss函数的一种(也称为损失函数或代价函数),用于描述模型预测值与真实值的差距大小,常见的Loss函数就是均方平方差(Mean Squared Error),定义如下。
平方差很好理解,预测值与真实值直接相减,为了避免得到负数取绝对值或者平方,再做平均就是均方平方差。注意这里预测值需要经过sigmoid激活函数,得到取值范围在0到1之间的预测值。
平方差可以表达预测值与真实值的差异,但在分类问题种效果并不如交叉熵好,原因可以参考这篇博文 。交叉熵的定义如下,截图来自https://hit-scir.gitbooks.io/neural-networks-and-deep-learning-zh_cn/content/chap3/c3s1.html 。
上面的文

本文详细介绍了TensorFlow中四种交叉熵函数的实现和应用,包括sigmoid_cross_entropy_with_logits、softmax_cross_entropy_with_logits、sparse_softmax_cross_entropy_with_logits和weighted_sigmoid_cross_entropy_with_logits。区分了多目标和多分类问题,强调了softmax在多分类问题中的重要性,并提供了函数选择的建议。
最低0.47元/天 解锁文章
1907

被折叠的 条评论
为什么被折叠?



