机器学习心得(三)——softmax回归
在上一篇文章中,主要以二分类为例,讲解了logistic回归模型原理。那么对于多分类问题,我们应该如何处理呢?当然,选择构建许多二分类器进行概率输出自然是一个不错的思路,但是softmax函数为我们解决多分类问题提供了一个更好的方法。记得上周看一篇讲RNN的博客时,看示意图一时没有想明白softmax层的意义所在,于是傻逼兮兮的请教了五道口某机器学习大佬,大佬一语道破天机,让我意识到了softmax层作为全连接层对隐层输出进行分类的功能所在(如下图, 博主地址)。

softmax回归
如同logistic回归原理一样,均可以视为一种映射关系:x->z->y,只不过softmax回归是进行多分类的而已。下面给出softmax回归的假设函数。
我们的目的很简单,就是对于每一个输入的x,假设函数都能输出x属于每一个类别的概率。如图所示,右侧的函数构造即可满足我们的要求。其中,分母项是为了归一化,使得概率之和为1.