机器学习心得(三)——softmax回归

本文介绍了softmax回归在多分类问题中的应用,详细解析了softmax回归的假设函数、代价函数,以及它与logistic回归的关系。文章还通过TensorFlow展示了softmax回归的代码实现,并用MNIST数据集进行演示。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

机器学习心得(三)——softmax回归


在上一篇文章中,主要以二分类为例,讲解了logistic回归模型原理。那么对于多分类问题,我们应该如何处理呢?当然,选择构建许多二分类器进行概率输出自然是一个不错的思路,但是softmax函数为我们解决多分类问题提供了一个更好的方法。记得上周看一篇讲RNN的博客时,看示意图一时没有想明白softmax层的意义所在,于是傻逼兮兮的请教了五道口某机器学习大佬,大佬一语道破天机,让我意识到了softmax层作为全连接层对隐层输出进行分类的功能所在(如下图, 博主地址)。

softmax回归

如同logistic回归原理一样,均可以视为一种映射关系:x->z->y,只不过softmax回归是进行多分类的而已。下面给出softmax回归的假设函数。


我们的目的很简单,就是对于每一个输入的x,假设函数都能输出x属于每一个类别的概率。如图所示,右侧的函数构造即可满足我们的要求。其中,分母项是为了归一化,使得概率之和为1.

代价函数

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值