第 6 课:逻辑回归LR与广义线性模型GLM

背景知识-LR/GLM应用场景及原理

什么是广义线性模型(Generalized Linear Models)

广义线性模型是一种统计模型,可以帮助我们找到数据中的模式。它比普通的线性回归模型更灵活,因为它能处理更多类型的数据,比如分类数据(比如是否购买某产品)或计数数据(比如一天内卖出多少商品),GLM有如下特点:

  • 灵活性:GLM能够处理各种类型的响应变量,包括连续、二分类和计数数据。
  • 统一框架:提供了一个统一的统计建模框架,使得不同类型的数据和问题可以用类似的方法处理。
  • 实际应用广泛:GLM在各个领域都有广泛的应用,例如医学中的生存分析、经济学中的计数数据建模、社会科学中的分类问题等。
    在这里插入图片描述

一个广义线性模型有三个关键组件
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述


在这里插入图片描述

隐语模型-密态SS(SecretShared)LR/SSGLM

随机梯度下降(Stochastic Gradient Descent, SGD),是一种在机器学习和深度学习中广泛使用的参数优化方法。它主要用于最小化或最大化一个目标函数(例如损失函数)。与传统的批量梯度下降(Batch Gradient Descent)相比,SGD在每次迭代时只使用单个样本(或一个小批量的样本)来更新模型参数,这使得它在处理大规模数据集时更为高效。

在这里插入图片描述
随机梯度下降(Stochastic Gradient Descent, SGD),是一种在机器学习和深度学习中广泛使用的参数优化方法。它主要用于最小化或最大化一个目标函数(例如损失函数)。与传统的批量梯度下降(Batch Gradient Descent)相比,SGD在每次迭代时只使用单个样本(或一个小批量的样本)来更新模型参数,这使得它在处理大规模数据集时更为高效。

SGD有多种变种,它们通过不同的方式调整学习率或梯度计算来改进性能,比如Momentum、AdaGrad、RMSProp、Adam等。这些变种通常能提供更快的收敛速度和更好的性能。

  • Momentum:引入动量项,使参数更新沿历史梯度的方向加速,有助于克服局部极小值。
  • AdaGrad:自动调整学习率,对频繁更新的参数减小学习率,对较少更新的参数增大学习率。
  • RMSProp:修正AdaGrad中学习率衰减过快的问题,通过指数加权平均平方梯度来动态调整学习率。
  • Adam:结合了Momentum和RMSProp的优点,同时使用了动量和自适应学习率,是目前最常用的优化算法之一。

广义线性模型参数估计

在这里插入图片描述

秘密分享加法

在这里插入图片描述

秘密分享乘法

在这里插入图片描述

应用实现-从理论到隐语应用

SSLR在这里插入图片描述
SSGLM
在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

frostmelody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值