- 博客(73)
- 收藏
- 关注
原创 U盘 微PE工具 电脑密码修改
share_source=copy_web&vd_source=c44f1015607a968f97ca64f22d5dfd84)操作,得到一个装有微PE工具的U盘。戴尔台式机重启需要 疯狂连续按 F12,之后进入这个界面和教程不一样的是点击这个选项。开工第一天,忘记电脑密码。后续按照教程操作即可。
2025-02-17 08:55:17
219
原创 【回忆版】数据科学思维与大数据智能分析 2024考试
1.对数变换对大数值的范围进行,对小数值的范围进行2.提取出大量与相关联的虚假模式,即(cross-support)模式3.信息论中()4.几种尺度中定性分析的是?定量分析的是?5.包含洞见的分析叫什么?然后包含先见的分析叫什么?包含后见的分析叫什么?6.奇异值分解包含三个步骤,(旋转,拉伸,旋转),2个参数包含多少(4)?
2024-09-05 10:53:43
461
原创 [论文阅读|异步FL]Asynchronous Wireless Federated Learning with Probabilistic Client Selection
从图 9 可以看出,在场景 1 中,贪心方案多次选择极度分布的客户端,而在场景 2 中,极度分布的客户端被完全忽略,说明贪心方案只会天真地选择通道条件好的客户端,从而导致客户端参与不公平,使全局模型向局部最优漂移。先对给定 (α, β, γ) 的内层凸问题(P3)和(P4)进行最优解,然后用改进的牛顿法求解外层问题,其中两层问题在一个循环中交替求解,最终得到问题(P2)的全局最优解。当(α, β, γ) = (α, β, γ)时,问题(P1)和问题(P2)具有相同的最优解(p∗,w∗)。
2024-07-11 20:10:19
992
1
原创 【论文阅读|异步联邦】FedASMU重读
但如果所有用户都在训练的时候请求新的全局模型,如果是同时申请,这样的状况,本文相当于只在本地聚合时多加了按权分配的策略,缓解了模型陈旧。表示 RL 训练过程的学习率,L 表示本地 epoch 的最大次数,∫L 对应第 L 个本地 epoch 后发送请求(1) 或 不发送请求(0) 的决定,bt 是减少模型偏差的基值。o 为全局模型的版本,l 为局部 epoch 个数,ηi 为设备 i 上的学习率,∇Fi(·) 为基于 Di 中无偏采样的小批 ζl−1 的梯度。元模型和局部模型都会生成每个时隙的概率。
2024-07-08 09:46:32
1213
3
原创 【论文笔记|异步联邦】Time-Sensitive Learning for Heterogeneous Federated Edge Intelligence
本文解决方案与最近的工作比较,表V,给出了在两个不同的数据集MNIST和交通数据下,使用我们提出的解决方案和[34]中提出的基于调度的方法,模型训练过程的总体耗时,在场景(a)和(d)中,目标模型精度分别为83.30%和80.43%。我们考虑手写数字数据集,并假设每个边缘服务器只有与单个数字相关的数据样本,而三个低性能边缘服务器(即离散者(树莓派3a))的数据样本与非唯一数字相关,即存在其他边缘服务器(树莓派4B)具有相同数字的数据样本。本文的目标:在保证模型训练精度的同时,最小化训练时间。
2024-07-08 09:44:45
1173
1
原创 【论文阅读|异步联邦】HiFlash: Communication-Efficient Hierarchical Federated Learning With Adaptive Staleness
在同一局域网 LAN 环境下,模型训练精度高,收敛速度快,更需要在边缘节点和客户端之间进行同步模型聚合在复杂的广域网 WAN 环境下,云端的模型训练存在通信瓶颈(不同边缘的客户端大小不同,远程传输时间波动很大,边缘模型聚合时间也不同),有严重的掉队问题。采用异步聚合减少中心服务器和边缘节点之间模型更新的等待时间,缓解掉队问题。
2024-06-14 11:18:34
1306
1
原创 【论文阅读 |异步联邦】GitFL: Uncertainty-Aware Real-Time Asynchronous Federated Learning using Version Control
一句话总结:模仿 git 实现版本控制,利用 DRL 实现客户选择,平衡分支模型的版本,解决全局模型不能充分地从掉队者那里学习知识的问题。
2024-06-01 11:07:27
870
1
原创 【论文阅读 | 异步联邦】FedLC: Accelerating Asynchronous Federated Learning in Edge Computing
考虑计算、通信资源限制,利用 需求列表动态选择 k 个进行交互的设备 ,最大效益 实现在 边缘设备间 的 本地协作
2024-05-24 22:06:02
576
原创 【论文阅读 | 异步联邦】Adaptive Asynchronous Federated Learning in Resource-Constrained Edge Computing
考虑带宽资源限制,自适应的调整每个训练周期中参与全局模型聚合的本地更新模型的比例 at。
2024-05-18 16:30:41
1159
1
原创 【论文笔记 | 异步联邦】PORT:How Asynchronous can Federated Learning Be?
现有的异步FL文献中设计的启发式方法都只反映设计空间中的点解决方案,并且在一些情况下未能激励他们的设计选择。由于测量训练时间的随机性,在PLATO中没有激活可重复性模式,PORT 和 FedBuff 等竞争对手之间的比较可能会因不同的数据集和运行而有所不同。最后,当服务器聚合迄今为止接收到的模型更新时(这些更新本质上是基于不同的全局模型的),服务器应该如何将聚合权重分配给每个客户机。因此,不能清楚在冲突的设计决策之间的最佳权衡是什么,以及在同步和异步机制之间的整个范围内的最佳点是什么。
2024-04-26 22:27:17
1655
1
原创 【论文笔记 | 异步联邦】 FedBuff
最优的服务器学习率随着并发性的增加而增加,高并发性意味着对更多用户进行聚合,这样能够减少方差,使服务器“迈出”更大的步,减少达到目标精度所需的轮数。同步 FL ,随训练过程中的客户端数量的增多,模型性能 和 训练速度 的收益 会下降,类似于大批量训练;每次客户端更新完成都强制服务器更新,这样的聚合方式不满足安全聚合的条件,此外,在AsyncFL中提供用户级DP仅适用于本地差分隐私(LDP),其中客户端剪辑模型更新并在将其发送到 Server 之前在本地添加噪声。用三种不同的种子重复每个实验,并取平均值。
2024-04-22 16:06:51
1425
1
原创 【论文笔记 | 异步联邦】Asynchronous Federated Optimization
Asynchronous Federated Optimization,OPT2020: 12th Annual Workshop on Optimization for Machine Learning,不属于ccfa。
2024-04-16 16:49:29
1746
2
原创 【论文笔记 | 异步联邦】FedASMU: Efficient Asynchronous Federated Learning with Dynamic Staleness-Aware Model
The intelligent time slot selector 由 Server 的 元模型 和 每个设备上的本地模型 组成,元模型为每个设备生成初始时隙决策,并在设备执行第一次局部训练时更新。培训过程由多个全局轮次组成。θt 表示元模型第 t 次更新后元模型中的参数,ηRL表示 RL 训练过程的学习率,L 表示本地 epoch 的最大次数,∫L 对应第 L。o 为全局模型的版本,l 为局部 epoch 个数,ηi 为设备 i 上的学习率,∇Fi(·) 为基于 Di 中无偏采样的小批 ζl−1。
2024-04-11 19:01:43
1286
1
原创 训练营总结
这是我第一次开始刷算法题,在动手刷题之前光是想想这件事,就非常地畏惧。一开始我也没抱着一定要刷完的心态,想着给自己一个机会,走到哪里算哪里。但是群里的氛围很好,刚进群的第一天,我在群里顺手发了自己没有什么信心的话,就有小伙伴鼓励我说,就算扛着也要把我带着打完这两个月的卡,当时就觉得我一定要跟上。后来中间也因为一些事情断断续续地停了一段时间,好在后来会慢慢补上。
2024-02-29 14:09:07
157
原创 Day 63 单调栈 503.下一个更大元素II 、 42. 接雨水
【代码】Day 63 单调栈 503.下一个更大元素II 、 42. 接雨水。
2024-02-29 14:07:29
202
原创 Day 62 | 单调栈 739. 每日温度 、496.下一个更大元素 I
【代码】Day 62 | 单调栈 739. 每日温度 、496.下一个更大元素 I。
2024-02-29 14:05:39
302
原创 Day 58 | 动态规划 392.判断子序列 、115.不同的子序列
【代码】Day 58 | 动态规划 392.判断子序列 、115.不同的子序列。
2024-02-28 20:08:34
334
原创 Day 57 | 动态规划 1143.最长公共子序列、 1035.不相交的线、 53. 最大子序和 动态规划
【代码】Day 57 | 动态规划 1143.最长公共子序列、 1035.不相交的线、 53. 最大子序和 动态规划。
2024-02-28 20:03:50
348
原创 Day 56 | 动态规划 300.最长递增子序列 、674. 最长连续递增序列 、 718. 最长重复子数组
【代码】Day 56 | 动态规划 300.最长递增子序列 、674. 最长连续递增序列 、 718. 最长重复子数组。
2024-02-28 19:56:35
209
原创 Day 52 | 动态规划 、198.打家劫舍 、 213.打家劫舍II 、 337.打家劫舍III
【代码】Day 52 | 动态规划 、198.打家劫舍 、 213.打家劫舍II 、 337.打家劫舍III。
2024-02-28 19:29:05
352
原创 Day 44 | 动态规划 完全背包、518. 零钱兑换 II 、 377. 组合总和 Ⅳ
思路:对于完全背包问题,内层循环的遍历方式应该是从weight[i]开始一直遍历到V,而不是从V到weight[i]。这样可以确保每种物品可以被选择多次放入背包,从而求解完全背包问题。对于完全背包问题,需要对内层循环进行调整,以确保每种物品可以被选择多次放入背包。
2024-02-13 09:15:17
1052
原创 Day 43 | 动态规划 1049. 最后一块石头的重量 II 、494. 目标和 、 474.一和零
思路:dp[j] 表示容量为 j 的背包,最多可以背最大重量为dp[j]。
2024-02-12 18:17:17
388
原创 Day 42 | 动态规划 01背包问题,二维 、 01背包问题,一维 、 416. 分割等和子集
思路:首先,初始化一个二维数组dp,其中dp[i][j]表示在前i个物品中,背包容量为j时能够获得的最大价值。然后,根据0-1背包的特性,使用动态规划的思想来填充dp数组。在填充dp数组的过程中,首先处理第一个物品的情况,对于所有背包容量大于等于第一个物品重量的情况,将dp[0][j]设置为第一个物品的价值。然后,对于剩下的物品,根据当前物品是否放入背包来更新dp数组。具体来说,如果当前物品的重量大于当前背包容量,无法放入该物品,因此dp[i][j]等于dp[i-1][j];
2024-02-10 21:43:20
323
原创 Day 41 | 动态规划 343. 整数拆分 、 96.不同的二叉搜索树
思路:不需要考虑正整数为1的情况。dp[i]表示正整数i拆分后结果的最大乘积,递推公式中 j 表示拆分的正整数,最大不会超过 i-j ,否则会轮回。dp[i-j]是正整数 i-j 拆分后结果最大乘积。
2024-02-07 20:06:01
437
原创 Day 39 | 动态规划 62.不同路径 、 63. 不同路径 II
思路:确定dp[i][j]含义:到达[i,j]有多少条路径;递推公式:dp[i][j]=dp[i][j-1]+dp[i-1][j]
2024-02-07 15:57:29
213
原创 Day 38 | 动态规划 理论基础 、 509. 斐波那契数 、 70. 爬楼梯 、746. 使用最小花费爬楼梯
思路:dp数组表示到达第i台阶所花费的最少体力为dp[i]。思路:和斐波那契很像。
2024-02-06 22:45:02
475
原创 Day 37 | 贪心 738.单调递增的数字 、 968.监控二叉树 、 总结
文章讲解如果找出局部最优并可以推出全局最优,就是贪心,如果局部最优都没找出来,就不是贪心,可能是单纯的模拟。
2024-02-06 17:28:46
340
原创 Day 36 | 贪心 435. 无重叠区间 、 763.划分字母区间 、 56. 合并区间
思路:按左边界排序,重叠比较:当前左边界若小于前一个右边界则重叠。顺次向后比较,需要注意的是取最小的右边界进行下一次比较,判断是否多个区域重叠。
2024-02-06 16:07:49
380
原创 Day 35 | 贪心 860.柠檬水找零 、 406.根据身高重建队列 、 452. 用最少数量的箭引爆气球
思路:分别列出三种支付方式对应的找零情况。
2024-02-05 08:30:51
373
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人