Example of Chain Rule in Gradient Back-propagation in LR

本文通过一个逻辑回归模型的实例,详细展示了梯度反向传播的过程,包括前向传播、损失函数计算及梯度计算等关键步骤。适用于理解梯度下降法中参数更新原理的学习者。

Example of Gradient Back-propagation in LR

In this example, we would not clearly separate optimizer, cost function and the model as in modern machine learning framework. We just derive the gradient back-propagation function for the whole process.

For SGD Case

这里写图片描述
Forward propagation:

  • logitraw=Σwixi+b
  • h=sigmoid(logitraw)
  • Loss=ytrue×log(h)(1ytrue)×log(1h),ytrue{0,1}

Back propagation:

  • Lh=ytrue1h(1ytrue)1h1=(ytrueh)h(1h)
  • hlogitraw=h(1h)
  • logitrawwi=xi
  • Lwi=Lhhlogitrawlogitrawwi=xi(ytrueh)

So the gradient to wi is derived as above.

For Batch-GD Case

In batch-GD situation, the data flow is just like combined sgd ones as in the 3d-picture(sorry 3d fails. take this 2d one).
这里写图片描述
By the chain rule of multivariate differential[1], the gradient to wi is the summation of the gradient from each back-propagation flow.
Gradient L_TOTALwi=Σxi(ytrueh)


Reference:
[1] Chain Rule - Wikipedia
[2] CS231n Back Propagation

内容概要:本文详细介绍了一个基于Java和Vue的联邦学习隐私保护推荐系统的设计与实现。系统采用联邦学习架构,使用户数据在本地完成模型训练,仅上传加密后的模型参数或梯度,通过中心服务器进行联邦平均聚合,从而实现数据隐私保护与协同建模的双重目标。项目涵盖完整的系统架构设计,包括本地模型训练、中心参数聚合、安全通信、前后端解耦、推荐算法插件化等模块,并结合差分隐私与同态加密等技术强化安全性。同时,系统通过Vue前端实现用户行为采集与个性化推荐展示,Java后端支撑高并发服务与日志处理,形成“本地训练—参数上传—全局聚合—模型下发—个性化微调”的完整闭环。文中还提供了关键模块的代码示例,如特征提取、模型聚合、加密上传等,增强了项目的可实施性与工程参考价值。 适合人群:具备一定Java和Vue开发基础,熟悉Spring Boot、RESTful API、分布式系统或机器学习相关技术,从事推荐系统、隐私计算或全栈开发方向的研发人员。 使用场景及目标:①学习联邦学习在推荐系统中的工程落地方法;②掌握隐私保护机制(如加密传输、差分隐私)与模型聚合技术的集成;③构建高安全、可扩展的分布式推荐系统原型;④实现前后端协同的个性化推荐闭环系统。 阅读建议:建议结合代码示例深入理解联邦学习流程,重点关注本地训练与全局聚合的协同逻辑,同时可基于项目架构进行算法替换与功能扩展,适用于科研验证与工业级系统原型开发。
评论
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值