Logistic函数和Softmax函数

本文深入探讨了Logistic回归及其在二分类问题中的应用,同时介绍了Softmax函数作为Logistic函数的推广,在神经网络多分类任务中的关键角色。两者皆为机器学习中重要的数学工具,用于预测和分类。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

  • Logistic
    在这里插入图片描述在这里插入图片描述应用:
    Logisitic Regression,简称LR)作为一种对数线性模型被广泛地应用于分类和回归场景中,此外,logistic函数也是神经网络中最为常用的激活函数,即sigmoid函数 。
    logistic函数常用作二分类场景中,表示输入已知的情况下,输出为1的概率:
    在这里插入图片描述
  • Softmax
    softmax函数是logistic函数的一般形式,本质是将一个K维的任意实数向量映射成K维的实数向量,其中向量中的每个元素取值都介于(0,1)之间,且所有元素的和为1

详情博客1

博客2
在这里插入图片描述应用:
softmax函数经常用在神经网络的最后一层,作为输出层,进行多分类
在这里插入图片描述

  • 关系
    【相同】
    1、我们常用梯度下降算法来求模型损失函数的最优解,因为softmax回归是logistic回归的一般形式,因此最优模型的学习方法相同。
    2、logistic回归针对的是二分类情况,而softmax解决的是多分类问题,若softmax回归处理的是二分类问题,则表达式如下:
    在这里插入图片描述
    【不同】
    1、logistic回归是二分类,通过“1对1(one vs one)“分类器和”1对其他(one vs the rest)“分类器转化为多分类;softmax回归进行的多分类,输出的类别是互斥的,不存在无法分类的区域,一个输入只能被归为一类;
    2、logistic多分类的解决办法:若构建K类的分类器,通过创建K类判定函数来解决无法分类的问题。假定K类判定函数为,对于输入样本x,
    在这里插入图片描述
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值