一、简介
1、 softmax回归模型是logistic回归模型在多分类问题上的推广,即类标签可取两个以上的值。
2、 假设(预测)函数
3、 每一个样本估计其所属类别的概率:
二、代价函数及其求解
1、 指示函数
2、 Softmax回归的代价函数(可参考LR的代价函数)
3、 使用梯度下降法进行求解
a) 对代价函数进行求梯度,得
b) 更新公式
三、Softmax回归特点
1、 softmax回归中存在参数冗余的问题,冗余参数对预测结果没有任何影响,即存在多组最优解(过度参数化)
2、 依然是凸函数,梯度下降是不会遇到局部最优,但是Hessian矩阵时非奇异的,牛顿法优化遇数值计算问题
3、 当类别k=2时,softmax回归退化为logistic回归
4、 解决k分类问题:类别间互斥,可采用softmax回归;否则可采用k个独立的二元分类器
本文介绍了softmax回归模型,它是logistic回归在多分类问题上的推广。文章详细解释了假设(预测)函数、代价函数及其求解过程,并探讨了softmax回归的特点,包括参数冗余问题、模型的凸性以及与logistic回归的关系。
![J(θ)=-1/m \{ ∑_{i=1}^m∑_{j=1}^k [I(y^{(i)}=j) \ log \ (e^{θ_j^T x^{(i)} } / ∑_{l=1}^k e^{θ_l^T x^{(i)} } )]\}](https://i-blog.csdnimg.cn/blog_migrate/8fae90d013b364ffd1474c16f7dad020.png%3D-1%2Fm+%5C%7B+%E2%88%91_%7Bi%3D1%7D%5Em%E2%88%91_%7Bj%3D1%7D%5Ek+%5BI%28y%5E%7B%28i%29%7D%3Dj%29+%5C+log+%5C+%28e%5E%7B%CE%B8_j%5ET+x%5E%7B%28i%29%7D+%7D+%2F+%E2%88%91_%7Bl%3D1%7D%5Ek+e%5E%7B%CE%B8_l%5ET+x%5E%7B%28i%29%7D+%7D+%29%5D%5C%7D)

依然是凸函数,梯度下降是不会遇到局部最优,但是Hessian矩阵时非奇异的,牛顿法优化遇数值计算问题
307

被折叠的 条评论
为什么被折叠?



