- 博客(186)
- 资源 (1)
- 收藏
- 关注
原创 Raft论文阅读笔记+翻译:In Search of Understandable Consensus Algorithm
共识算法允许一组机器作为一个协调一致的群体工作,可以在其中一些成员发生故障时仍然正常运行。因此,它们在构建可靠的大规模软件系统中起着关键作用。在过去的十年中,Paxos [15, 16]主导了共识算法的讨论:大多数共识的实现都基于Paxos或受其影响,并且Paxos已成为教授学生共识的主要工具。不幸的是,尽管进行了许多努力以使Paxos更易理解,但它仍然相当难以理解。此外,它的架构需要复杂的改变来支持实际系统。因此,系统构建者和学生对Paxos感到困难。Paxos在实际系统中较难实现。
2024-05-13 18:17:06
1402
原创 论文翻译及部分笔记:LANDMARC: Indoor Location Sensing Using Active RFID
无线技术、移动计算设备和互联网的普及,促使了对位置感知系统和服务的兴趣日益增长。许多应用需要了解物体的物理位置。多年来,许多系统已经解决了自动位置感知的问题。三边测量、场景分析和接近度是自动位置感知的三种主要技术[1]。全球定位系统(GPS)是最著名的基于位置的系统之一[2]。然而,由于全球定位系统依赖卫星,它在准确确定建筑物内物体位置方面存在固有问题。为了实现在建筑物内定位物体的能力,已经提出和测试了不同的方法,以验证其有效性和实用性。
2024-05-13 18:15:25
1242
原创 论文笔记:仅一个进程故障就无法达成共识
在分布式计算中,达成远程进程之间的一致性是最基本的问题之一,并且是许多分布式数据处理、分布式文件管理和容错分布式应用程序算法的核心。远程进程之间达成一致的问题是分布式计算中最基本的问题之一,也是许多分布式数据处理算法、分布式文件管理和容错分布式应用程序的核心问题。一个众所周知的问题形式是“事务提交问题”,它在分布式数据库系统中出现[6, 13, 15-17, 21-24](参见G. LeLann的私人通信,在[15]中引用)。
2024-05-13 18:13:41
1033
1
原创 Safe and Practical GPU Computation in TrustZone论文阅读笔记
移动设备上的GPU从前是为了加速图形渲染,现在是为了机器学习推理和联邦学习。Arm TrustZone 是一个可信执行环境(TEE) ,其中敏感代码与不可信操作系统隔离,确保执行的保密性和完整性。虽然 TrustZone 已经能够隔离 GPU 硬件[15,44] ,但最大的障碍是 GPU 软件栈(简称 GPU stack1) ,它很大[46] ,并且以漏洞能力而闻名[4,5,60]。现有技术转换 GPU 栈[71]或工作负载[7,61,69]以适应 TEE;
2023-12-02 21:05:42
840
2
原创 AdaInf: Data Drift Adaptive Scheduling 阅读笔记
音视频推断依赖于边缘上的毫秒级SLOs,为了避免数据漂移导致的精度下降,需要不断地进行再训练。然而,满足严格的slo,同时保持在这种情况下的高精度,这对GPU资源分配提出了挑战。目前还没有专门针对这个问题的研究。在本文中,我们对这一特定场景进行了trace-based实验分析,结果表明不同的模型受数据漂移、增量再训练(我们提出在推理之前对某些样本进行再训练)和早期退出模型结构有助于提高准确性有不同程度的影响,任务之间的相互依赖可能导致CPU-GPU内存通信。
2023-10-18 11:52:57
896
2
原创 多项式时间验证与NP完全性
复杂类P是能被一个多项式时间算法验证的语言类。Lx∈01∗存在一个证书y∣y∣O∣x∣c,满足Axy1L=\{x\in \{0,1\}^*:存在一个证书y,|y|=O(|x|^c),满足A(x,y)=1\}Lx∈01∗存在一个证书y∣y∣O∣x∣c,满足Axy1我们说算法A在多项式时间内验证了语言L。
2023-05-07 16:39:51
1004
原创 Energy-efficient Federated Learning via Stabilization-aware On-device Update Scaling 阅读笔记
Energy-efficient Federated Learning via Stabilization-aware On-device Update Scaling阅读笔记
2022-10-23 16:58:03
489
原创 PATHWAYS: ASYNCHRONOUS DISTRIBUTED DATAFLOW FOR ML论文阅读笔记
PATHWAYS阅读笔记:分布式ML
2022-10-02 18:40:13
1067
1
原创 FasterMoE:Modeling and Optimizing Training of Large-Scale Dynamic Pre-Trained Models阅读笔记
FasterMoE:Modeling and Optimizing Training of Large-Scale Dynamic Pre-Trained Models阅读笔记;参考b站视频
2022-10-02 18:38:11
2801
原创 Alpa: Automating Inter- and Intra-Operator Parallelism for Distributed Deep Learning阅读笔记
Alpa阅读笔记——参考油管报告
2022-10-02 18:34:32
2344
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人