毕设参考论文精读

部署运行你感兴趣的模型镜像

第二节第二小节 

RAD 攻击代价

1.不可达目的地 C1/censor

2.不可达域 C2/censor

3.路由长度增长 C3/censor

4.NVF路径耗费 C4/censor

5.非最优路由 C5/censor

6.新传输自治域 C6/censor

第三节 注释及定义

三种类型参与者:审查者,诱饵,自治者

ASi为第i个自治系统

Acens为审查控制下的自治域集合

Afree为无审查控制下的自治域集合

Pi,j为网络路径,从自治域i到自治域j的有向集合

Ri,j=R(Pi,j)从自治域i到自治域j的路由

包含有至少一个诱饵自治域的Ri,j称为诱饵路由,不然称为无诱饵路由

Ac是审查者决策集合

P是所有路径的集合

Ad是部署诱饵选择的自治域集合

ASk是自治域独立决策是否部署诱饵路由的集合

审查矩阵:

S=1-(每个含诱饵自治区IP数*每个不含诱饵自治区IP数*δ(Ri,j))的累加和/(每个含诱饵自治区IP数*每个不含诱饵自治区IP数)的累加和

δ(Ri,j)在Ri,j中至少包含一个诱饵时为1,不包含时为0

 

博弈一:中心决策诱饵系统

诱饵参与者

Bdecoy=1-S 诱饵部署收益

C(ASi)=美元转换参数*ASi的IP数*ASi与审查者的关系系数     在第i个自治区域部署诱饵的成本

Cdecoy=C(ASi)的累加和 代表诱饵花费的代价

Udecoy=Bdecoy subuject to Cdecoy<=F F为有限的预算,C为已使用的花费,

审查参与者

Bcensor=S 审查收益等于代价矩阵

Ucensor=β0*Bcensor-(βi*Ci/censor)的累加和

β=(β0,β1,...,β6)是审查的个性,取决于其对各个代价参数的重视程度

不同的审查者属性不一样

机制设计

 

 

您可能感兴趣的与本文相关的镜像

ACE-Step

ACE-Step

音乐合成
ACE-Step

ACE-Step是由中国团队阶跃星辰(StepFun)与ACE Studio联手打造的开源音乐生成模型。 它拥有3.5B参数量,支持快速高质量生成、强可控性和易于拓展的特点。 最厉害的是,它可以生成多种语言的歌曲,包括但不限于中文、英文、日文等19种语言

### 论文精读与实验复现的方法 #### 方法概述 论文精读和实验复现是深入理解研究工作的重要手段。在IT领域,这种方法不仅有助于掌握技术细节,还能培养批判性思维能力以及实际动手能力。以下是针对论文精读和实验复现的具体方法。 --- #### 一、论文精读的核心步骤 1. **快速浏览全文** 阅读摘要、引言和结论部分,了解论文的研究背景、主要贡献和技术框架[^1]。这一步的目标是形成对整篇论文的大致印象。 2. **逐节细读** 对于任务规划模块或其他核心章节,仔细阅读其理论推导、算法设计和实验设置等内容。注意作者提到的局限性和未来工作的方向[^1]。如果发现某些方面未被充分讨论(如参数影响或任务依赖关系),可以记录下来作为后续探索的方向。 3. **绘制结构图** 使用流程图或者概念地图的方式整理出论文的技术路线及其组成部分之间的逻辑联系[^2]。这种可视化工具能够帮助记忆复杂的信息流,并便于与其他相关工作对比分析。 4. **质疑与思考** 提问自己几个关键问题:为什么选择了特定的方法?是否存在其他可能更优的选择?数据集选取是否合理?评价指标是否有偏倚等问题[^3]? --- #### 二、实验复现的关键环节 1. **环境搭建** 根据论文描述准备所需的软件库版本号、硬件配置需求等基础条件。很多时候官方开源代码附带详细的安装指南可以帮助加速此阶段进程[^2]。 2. **重现基线结果** 尝试按照文中提供的超参设定运行原始模型得到接近原作报告数值的表现水平。这是验证个人实现正确性的第一步也是最重要的一步[^1]。 3. **修改与优化** 基于自己的理解和前期提出的疑问尝试调整网络架构、损失函数定义甚至整个训练策略等方面的内容看能否进一步提升性能表现或是解决之前指出的一些不足之处例如增加对于不同类型输入适应性强弱测试等等[^3]。 4. **撰写总结文档** 不仅要记录下成功再现的结果也要包括失败案例的原因剖析这样既有利于自我反思也方便日后查阅参考资料时迅速定位重要知识点[^2]. --- #### 示例代码片段展示如何加载预训练权重文件(以PyTorch为例) ```python import torch def load_pretrained_weights(model, path_to_checkpoint): checkpoint = torch.load(path_to_checkpoint) model.load_state_dict(checkpoint['model']) epoch = checkpoint.get('epoch', None) loss = checkpoint.get('loss', None) return model, epoch, loss ``` 上述代码展示了怎样从磁盘上的checkpoint恢复先前保存的状态以便继续训练或者是直接用于推理模式下的预测操作[^2]. ---
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值