模型分类问题主要包含二分类和多分类两种场景。
1、二分类为什么会采用sigmoid激活函数
模型在实际输出时值可能不在【0,1】区间,我们需要把模型的输出映射到【0,1】区间。
二分类问题需要采用逻辑回归的思路解决问题。原因是逻辑回归服从0-1分布,即 P(Y=1|x) = p(x) P(Y=0|x)=1-p(x) 我们希望模型预测输出p(x) 越大越接近1越好。非常巧妙把两个公式整合在一起,L=p(x)^y(1-p(x))^(1-y)。这个公式被叫做
最大似然函数。因此二分类问题采用的损失函数为 -log(p(x)^y(1-p(x))^(1-y)) 。
2、为什么分类问题的损失函数采用交叉熵损失函数而不是mse损失函数。
具体参考 https://blog.youkuaiyun.com/liuweiyuxiang/article/details/90707375
3、多分类问题
当多个类别不是互斥关系,可以采用对每个类别进行逻辑回归的方式。
当多个类别是互斥关系是,可以采用softmax激活函数。
模型分类问题的激活与损失函数解析
博客主要探讨模型分类问题,包含二分类和多分类场景。二分类采用sigmoid激活函数,将输出映射到【0,1】区间,用逻辑回归思路,损失函数为 -log(p(x)^y(1 - p(x))^(1 - y))。还提及分类问题损失函数为何用交叉熵而非mse,多分类依类别关系选不同处理方式。
1437

被折叠的 条评论
为什么被折叠?



