关于逻辑回归的几个函数

文章介绍了逻辑回归在分类问题中的应用,它通过将连续的决策函数转换为0-1之间的概率,用于预测结果。逻辑回归的假设函数为sigmoid函数,决策函数用于区分0和1的结果。优化过程通过代价函数进行,为了避免过拟合,文章提到了正则化的重要性,特别是L1和L2正则化的区别和作用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

写作业时重新理了下,如果有问题欢迎指正!

  1. 说是回归,其实就是个分类,用【0,1】标记结果y是录取还是录取,而影响结果y的就是X(x0,x1,…xn-1)。
  2. 怎么判断结果y是0还是1用到的是逻辑回归函数(也叫假设函数,随便怎么叫)
    h θ ( x ) = 1 1 + e − θ . T x h_\theta(x)=\frac{1}{1+e^{-\theta.Tx}} hθ(x)=1+eθ.Tx1(.T是矩阵的转置,θ和x都是矩阵的形式。实际代码实现中用矩阵进行计算更方便),当 z = − θ . T x z=-\theta.Tx z=θ.Tx为0(正好卡在决策函数上,决策函数就是分类的那条线,后面还会说),预测结果发生概率为0.5,在决策函数的A部分就往1趋近,反之往0趋近。
    逻辑回归函数的作用,网上搜的规范点说法:将取值范围(−∞,+∞)映射到(0,1) 之间,更适宜表示预测的概率,即事件发生的“可能性” 。
    在这里插入图片描述
    3. z = − θ . T x z=-\theta.Tx z=θ.Tx θ . T x \theta.Tx θ.Tx 这个就是决策函数,也就是y = θ0x0 + θ1x1(假设就两个参数,而且次数都是1),矩阵theta 包括 θ0 + θ1 + θ2 + … + θn-1,矩阵x包括x0 + x1 + x2 + … + xn-1
    决策函数的作用就是把0和1的结果隔离开,逻辑回归函数的作用就是计算预测结果的可能性。
  3. 为了获取最合适的决策函数,需要代价函数来计算代价最小时的theta(梯度下降)。这里计算代价不能再用线性回归的代价函数了,会有多个局部最值。(详细可以看吴恩达教授的视频,b站就有)
    这是逻辑回归的代价函数,推导可以看这个https://blog.youkuaiyun.com/W_Y_J_love/article/details/105415927在这里插入图片描述
  4. 总的来说就是根据代价函数求出满足训练数据集的代价最小的theta。
  5. 但是!如果数据不够还追求代价函数最小化,很有可能导致过拟合,再导入新的数据就可能出现大麻烦!所以请考虑一下正则化,目的就是为了不让决策函数过拟合。不理解正则化原理可以看看这个https://zhuanlan.zhihu.com/p/345566088
    • 正则化是从θ1开始而不是从θ0
      在这里插入图片描述

    • 正则化函数引入参数λ,共同影响了在计算回归函数的代价函数的最小值的取值(λ与θ相互制约,谁也不让谁太过分)(听起来有点绕hh),其实就是极值点因为引入的正则化函数偏移了。
      在这里插入图片描述

    • 正则化函数取θ2更温和, 不会直接把大量的特征归零。(看图)
      在这里插入图片描述

逻辑回归本质上是线性回归模型,在特征和结果的映射中加入了一层函数映射。这个函数映射将特征值线性求和的结果映射到0和1的范围上,从而得到离散的分类结果。 为什么选择sigmoid函数作为逻辑回归的映射函数呢?有以下几个原因: 1)对于逻辑回归模型,我们的目标是最大化条件似然度。我们想要得到给定输入特征x时,类标记y=1出现的概率p(y=1|x;w)。sigmoid函数可以将输入特征x与权重w的线性组合映射到一个条件概率上,从而表示类标记为1的置信度。 2)sigmoid函数具有一些很好的数学性质,比如单调上升和连续可导。 3)sigmoid函数的导数具有特殊的性质,这使得我们在使用梯度下降等优化算法时更容易求解。 总结起来,逻辑回归选择sigmoid函数作为映射函数是因为sigmoid函数可以将线性求和的结果映射到0和1之间的概率,具有良好的数学性质,并且在优化算法中易于求解。 逻辑回归是一种分类算法,与回归方法有一定的联系,但是逻辑回归主要用于解决分类问题。在逻辑回归中,通过将标量wx+b通过sigmoid函数映射到(0,1)的范围上,然后将其划分为两个类别,通常是0和1。<span class="em">1</span><span class="em">2</span><span class="em">3</span> #### 引用[.reference_title] - *1* [逻辑回归](https://blog.youkuaiyun.com/qq_36890572/article/details/80220078)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 33.333333333333336%"] - *2* [机器学习-逻辑回归分析(Python)](https://download.youkuaiyun.com/download/weixin_38637272/15439025)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 33.333333333333336%"] - *3* [逻辑回归、激活函数sigmoid、损失及优化、案例代码实现](https://blog.youkuaiyun.com/qq_43874317/article/details/128283780)[target="_blank" data-report-click={"spm":"1018.2226.3001.9630","extra":{"utm_source":"vip_chatgpt_common_search_pc_result","utm_medium":"distribute.pc_search_result.none-task-cask-2~all~insert_cask~default-1-null.142^v93^chatsearchT3_2"}}] [.reference_item style="max-width: 33.333333333333336%"] [ .reference_list ]
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值