L2GD论文阅读笔记

摘要

《Federated Learning of a Mixture of Global and Local Models》这篇论文的目的是在Local和Global之间寻找一个trade off,对全局模型和局部模型进行混合,并提出适用于这一想法的几种新的梯度下降算法,如L2GD,该算法还能改进通信复杂度。

本文的两项动机

1、全局模型在客户端的实用性问题。
2、传统的LGD在理论上,并不能改善通信复杂度。

目标函数

在这里插入图片描述
其中f(x)是全局平均损失值,λ≥0是惩罚项参数, x 1 x_1 x1 x n x_n xn R d R^d Rd是本地模型,x:=( x 1 x_1 x1 x n x_n xn

### 关于L2归一化 L2归一化是一种常见的数据预处理技术,在机器学习和深度学习领域被广泛应用于特征缩放和正则化。通过将向量的每个维度除以其欧几里得范数(即平方根下的平方和),可以确保所有样本都具有相同的长度,从而减少不同尺度特征的影响[^1]。 尽管当前引用未直接提及L2归一化的具体学术资源,但可以从以下几个方面入手查找相关材料: #### 学术论文推荐 1. **SVM中的L2正则化** 支持向量机(SVM)的研究中经常涉及L2正则化及其理论基础。例如,《Regularization Paths for Generalized Linear Models via Coordinate Descent》讨论了如何利用L2正则化优化模型参数[^3]。 2. **神经网络中的Batch Normalization与L2 Norm** 在深度学习框架下,L2归一化常用于防止过拟合并提升泛化能力。《Deep Learning with Python》提到批量标准化(Batch Normalization)可视为一种扩展形式的L2归一化方法。 3. **图像检索中的应用** 对于计算机视觉任务而言,采用L2距离度量相似性的策略已被证明有效。参见《ImageNet Classification with Deep Convolutional Neural Networks》,该文中探讨了卷积层权重初始化过程中加入L2约束的效果[^2]。 以下是实现简单版本L2归一化的Python代码片段: ```python import numpy as np def l2_normalize(vector): norm = np.linalg.norm(vector, ord=2) if norm == 0: raise ValueError("Cannot normalize zero vector.") return vector / norm ``` ### 相关工具书目建议 为了更深入理解这一主题,还可以参考以下书籍或教程链接获取更多信息: - *Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow* 提供详尽实例解析各种规范化技巧的实际运用场景; - 官方文档如TensorFlow或者PyTorch指南也涵盖了大量有关此话题的内容说明。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

联邦学习小白

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值