
对抗网络
文章平均质量分 92
本栏主要是记录学习对抗网络训练的知识点。
Dr.Petrichor
计算机专业博士研究生,华为云计算专家,优快云博客专家,优快云人工智能领域优质创作者,现主要研究Python数据分析、机器学习、NLP相关领域内容。
展开
-
Bert+FGSM中文文本分类
接下来,它使用torch.max()和torch.min()函数将张量X中的元素限制在下限和上限之间,并返回截断后的张量。需要注意的是,该函数中使用了clone().detach()方法来复制构造一个新的张量,这是为了避免在函数中修改原始张量X。同时,该函数中使用了X.device来将下限和上限张量分配给与X相同的设备,这是为了保证在不同设备上运行时代码的兼容性。这段代码实现了一个张量的截断操作,即将张量X中的元素限制在一个上下限范围内,返回截断后的张量。中的实现思路,下面开始记录下来具体实验代码。原创 2023-06-05 15:34:29 · 919 阅读 · 1 评论 -
Bert+FGSM/PGD实现中文文本分类(Loss=0.5L1+0.5L2)
这段代码的主要作用是创建一个用于文本分类的 BERT 模型,并初始化优化器和损失函数。其中: BertForSequenceClassification.from_pretrained('bert-base-chinese', num_labels=10) 加载了预训练的 BERT 模型,并创建了一个用于文本分类的 BERT 模型。其中,'bert-base-chinese' 表示使用中文 BERT 模型,num_labels=10 表示模型的输出类别数为 10。原创 2023-06-05 14:14:53 · 751 阅读 · 1 评论 -
Bert+对抗训练+对抗性样本防御的文本分类实战
我们用Bert实现对THUCNews文本分类,在embdedding使用FGSM添加干扰实现对抗训练,并且考虑对抗性样本的防御,代码实现并进行逐行注释,使用pytorch实现。原创 2023-05-27 14:28:19 · 1292 阅读 · 1 评论 -
基于Bert+对抗训练的文本分类实现
由于Bert的强大,它文本分类取得了非常好的效果,而通过对抗训练提升模型的鲁棒性是一个非常有研究意义的方向,下面将通过代码实战与大家一起探讨交流对抗训练在Bert文本分类领域的应用。原创 2023-05-26 16:14:02 · 1454 阅读 · 3 评论 -
《Fast Gradient Projection Method for Text Adversary Generation and Adversarial Training》论文学习笔记
最近在学习对抗学习在方面的论文,对抗训练在提高深度神经网络对图像分类的鲁棒性方面表现出了有效性和高效性。然而,对于文本分类,。此外,现有的文本攻击方法虽然有效,但效率还不足以应用于实际的文本对抗训练。在这项工作中,我们提出了一种快速梯度投影方法( FGPM )来生成基于同义词替换的文本对抗样本,其中每个替换都是由原始词和候选词在梯度方向上的投影距离和梯度大小的乘积来评分的。实证评估表明,与竞争攻击基线相比,。原创 2023-05-16 23:09:13 · 481 阅读 · 0 评论