机器学习模型的风险与攻击
1. 基于GAN的攻击策略
攻击者的攻击策略依赖于实时学习过程来训练生成对抗网络(GAN)。在这个过程中,目标类别的样本(与客户端2的类别相同)被生成,生成器中使用的特征图大小(ngf)设置为64,潜在向量z的大小设置为100,训练图像的通道数(nc)设置为1。GAN生成的样本来自于私有目标训练数据集。以下是相关代码,展示了FedAvgServer如何聚合客户端数据并构建全局模型:
clients = [client_1, client_2]
optimizers = [optimizer_1, optimizer_2]
generator = Generator(nz, nc, ngf)
generator.to(device)
optimizer_g = optim.SGD(
generator.parameters(), lr=0.05, weight_decay=1e-7, momentum=0.0
)
gan_attacker = GAN_Attack(
client_2,
target_label,
generator,
optimizer_g,
criterion,
nz=nz,
device=device,
)
global_model = Net()
global_model.to(device)
server = FedAvgServer(clients, global_model)
2. 脚手架攻击
脚手架攻击旨在通过精心构建实际解释来隐藏分类器模型的偏差。在这种攻击
超级会员免费看
订阅专栏 解锁全文
2141

被折叠的 条评论
为什么被折叠?



