softmax回归分类原理
对于回归问题,可以用模型预测值与真实值比较,用均方误差这样的损失函数表示误差,迭代使误差最小训练模型。
那么分类问题是否可以用线性回归模型预测呢。最简单的方法就是用softmax方法,softmax的原理:
- 以in_features个特征,out_features个类别为例。比如用花瓣大小、生长位置、花瓣形状三个因素,判断荷花和梅花,则in_features为3,out_feautures为2。
模型为
y 1 = x 11 w 11 + x 12 w 12 + x 13 w 13 + b 1 y 2 = x 21 w 21 + x 22 w 22 + x 23 w 23 + b 2 y_1=x_{11}w_{11}+x_{12}w_{12}+x_{13}w_{13}+b_1 \\ y_2=x_{21}w_{21}+x_{22}w_{22}+x_{23}w_{23}+b_2 y1=x11w11+x12w12+x13w13+b1y2=x21w21+x22w22+x23w23+b2
- out_features个分类,用输出值的大小表示分类, y 1 , y 2 y_1,y_2 y1

本文详细阐述了softmax回归在分类问题中的应用,介绍了如何将线性回归模型扩展到多分类,通过softmax函数将输出转化为概率分布,以及交叉熵损失函数的计算方法。通过实例演示了如何在PyTorch中实现softmax分类并训练模型。
最低0.47元/天 解锁文章

被折叠的 条评论
为什么被折叠?



