- 博客(51)
- 收藏
- 关注
原创 driver = webdriver.Chrome()长时间不响应
有时自动下载的 ChromeDriver 可能无法正常工作,要手动指定 ChromeDriver 的路径。给出你的chromedriver.exe地址就行了。
2025-10-27 16:28:49
122
原创 gdp-peda :No module named ‘six.moves‘
在网上找了好久都没找到答案,幸好最后用dicksuck解决了。解决办法:在~/.gdbinit 中写入如下内容。
2025-10-09 20:22:23
254
原创 论文翻译-nightshade-oakland24
基于数十亿图像训练的扩散文生图模型似乎对传统的数据中毒攻击免疫,后者通常需要毒样本接近训练集的20%。在本文中,我们展示了最先进的文生图生成模型实际上极易受到中毒攻击。我们的工作基于两个关键见解。首先,虽然扩散模型在数十亿样本上训练,但与特定概念或提示词相关联的训练样本数量通常只有数千级别。这表明这些模型将易受提示词定向中毒攻击的影响,这种攻击会破坏模型响应特定目标提示词的能力。其次,毒样本可以被精心设计以最大化毒性效力,从而确保用极少的样本即可成功。我们提出了Nightshade。
2025-08-12 15:38:04
1127
原创 对抗攻击-知识点
机器学习图像分类器决策边界易受扰动影响,自然图像往往靠近分类边界,轻微修改即可导致预测错误。特征降采样是CNN的核心操作,通过减少特征图尺寸并增加通道数来提取高阶特征。DCT变换将图像分解为64个正交基函数,通过量化高频系数实现压缩(JPEG标准),人眼对低频分量更敏感。图像格式通道差异显著:PNG支持透明通道(1-4通道),JPEG仅3通道RGB,RAW格式本质为单通道传感器数据。黑盒攻击通过数百次查询生成对抗样本,可增强模型鲁棒性。正交方向扰动可独立修改像素而不互相干扰。
2025-07-27 17:07:27
691
原创 论文翻译-TF-Attack: Transferable and fast adversarial attacks on large language models
随着大语言模型 (LLMs) 的巨大进步,针对 LLMs 的对抗攻击最近引起了越来越多的关注。我们发现,现有的对抗攻击方法表现出有限的可迁移性且效率明显低下,特别是在应用于 LLMs 时。本文分析了先前主流对抗攻击方法的核心机制,揭示了:(1) 不同受害者模型的重要性分数分布存在显著差异,限制了可迁移性;(2) 顺序攻击过程导致巨大的时间开销。基于以上两点洞察,我们引入了一种新方案,命名为TF-Artack。
2025-07-24 17:39:01
551
原创 深度学习-词嵌入
在传统的文本处理中,通常使用独热编码(One-Hot Encoding)来表示单词,即将每个单词表示为一个稀疏的高维向量,向量中只有一个位置为1,其余位置为0。而词嵌入通过将单词映射到一个连续的向量空间中,使得具有相似语义的单词在向量空间中的距离更近。这样的表示方式可以更好地表达单词之间的语义关系,并且可以用于计算单词的相似度、聚类、分类等任务。词嵌入(Word Embedding)是自然语言处理(NLP)中的一种技术,用于。用向量(表格)中的各项指标来评判这个词语的各个属性。
2025-07-13 16:37:15
268
原创 深度学习-循环神经网络RNN
本文介绍了序列模型与循环神经网络(RNN)的基本原理与应用。主要内容包括:1)序列模型的特点,强调数据的时间依赖性;2)RNN的网络结构,通过隐层状态s_t保留历史信息,体现序列关联性;3)词向量表示方法,将离散词语转化为连续向量;4)RNN的矩阵运算形式和交叉熵损失函数;5)时间反向传播算法(BPTT)及其面临的梯度消失/爆炸问题。文中附有多个示意图,展示了RNN在语言模型等序列任务中的应用场景和工作原理。
2025-07-13 16:14:23
342
原创 深度学习-LeNet5-AlexNet
本文介绍了卷积神经网络(CNN)的基本结构与设计要点。首先说明一组Conv+Pool构成一层网络,并给出卷积输出尺寸计算公式。然后分析了CNN的层级结构:卷积池化层用于特征提取,全连接层作为分类器。文中特别强调网络尺寸变化应平缓过渡,并详细计算了卷积层的参数量。针对参数过多问题,介绍了AlexNet的优化思路:通过1x1卷积降低通道数,减少计算量。最后展示了Inception结构,这种多分支设计能高效提取不同尺度的特征。文章总结了CNN的核心组件及其参数优化方法,为理解现代卷积网络架构提供了基础。
2025-07-12 15:22:49
364
原创 深度学习-卷积化
卷积神经网络核心组件解析 卷积神经网络主要由三部分组成:卷积层通过过滤器提取特征,支持零填充和步长调整控制输出尺寸;池化层(最大/平均池化)进行下采样,缩减特征图尺寸;全连接层将特征扁平化后完成最终分类。卷积操作需注意多通道处理,输出尺寸公式为(N-F+1)/S,其中N为输入尺寸,F为过滤器大小,S为步长。池化层无参数,仅按窗口聚合特征。整个架构通过局部感知和参数共享高效处理图像等结构化数据。
2025-07-12 14:52:58
301
原创 深度学习-超参数设置
本文介绍了神经网络中Batch Normalization(BN)的关键作用及其实现原理。主要内容包括:1)网络层数和隐藏单元数的设置;2)学习率等超参数的选择策略;3)BN的核心机制:对每层输出进行标准化(均值0,方差1)后,通过可学习的γ和β参数进行线性变换;4)BN的优势分析:降低层间耦合性、增强模型鲁棒性、允许使用更大学习率、稳定梯度传播。通过对比表格清晰展示了BN网络在分布稳定性、参数独立性等方面的显著改进。BN通过标准化处理有效缓解了内部协变量偏移问题,使深层网络更易于训练。
2025-07-11 20:36:51
707
原创 深度学习遇到的问题
鞍点处的梯度为零,鞍点通常被相同误差值的平面所包围(这个平面又叫Plateaus,Plateaus是梯度接近于零的平缓区域,会降低神经网络学习速度),在高维的情形,这个。在SGD中可能第n个样本使其脱离鞍点,但由于鞍点附近的平坦区域范围可能非常大,导致损失函数值梯度非常小,从而使后续样本的训练使其在鞍点附近波动。因此,选择一个合适的大小进行 Mini-batch 梯度下降,可以实现快速学习,也应用了向量化带来的好处,且成本函数的下降处于前两者之间。初始化参数,权重随机,使其不相等。
2025-07-09 18:36:08
1230
原创 深度学习-多分类
交叉熵损失函数与逻辑回归中的损失函数效果相同,都是为如何调整参数指明方向,即通过求取梯度,调整参数使损失函数的值逼近0,只是交叉熵损失函数用在多分类中。在这个模型中没有隐藏层,这是一个单层神经网络(也称为 Softmax 回归或多元逻辑回归),是直接从784个输出特征到,输出层的十个输出神经元。(乘的时候按类,分开乘了,0*log or 1*log ,单个样本,最终结果取决于那个唯一的1*log的值)softmax_output = exp(z_i) / sum(exp(z_j)) # 转换为概率分布。
2025-07-08 21:18:56
1325
原创 pytorch-安装(自用)
conda不仅可以安装和更新Python包,还可以创建和管理独立的Python环境。这意味着你可以为不同的项目创建不同的环境,每个环境可以有不同版本的包,互不影响。例如,你可以在一个环境中使用Python 2,在另一个环境中使用Python。CUDA (Compute Unified Device Architecture) 是NVIDIA开发的并行计算平台和编程模型,它使开发者能够利用NVIDIA GPU的强大计算能力加速计算密集型任务。可以创建管理python虚拟环境。
2025-07-07 17:28:18
384
原创 浅度解读-(未完成版)浅层神经网络-深层神经网络
如果不加激活函数,那么神经元就仅仅做线性变换,以AlexNet为例,这个神经网络就会成为一个线性回归模型。因此,我们需要添加非线性的激活函数,在神经网络的输入输出之间形成非线性映射,让网络能力更为强大。线性变换2 将各个神经元非线性化后的结果线加上偏置后,拟合(加)成一条线,最终根据这条线。第一个激活函数是为了把线性变换的各条线变成更便于拟合的,具有非线性特征的线。仅线性变化得到的,拟合(加起来)效果不如激活函数得到的非线性线的拟合。与单神经元相比,不同在于每个不同的神经元对相同的输入有不同权。
2025-07-05 21:11:35
756
原创 深度学习-逻辑回归-单个神经元
假设有一个简单的神经网络层,包括输入 ( x )、权重 ( w )、偏置 ( b ) 和激活函数( σ),输出为 ( a )。损失函数为 ( L ),我们希望计算损失函数对权重 ( w ) 的梯度。) ,b,使得模型预测的概率 P(Y=1) 尽可能接近样本的真实标签(1 或 0)。逻辑回归只会给出 0 1的判断,而我们优化的就是减小这个0 1判断的误差。损失计算:L=Loss(a,y),其中 y 是真实标签,a是预测值。这里的 α是△w的意思,w的优化就是通过减去w的偏导数来达成的。反向传播中的梯度计算。
2025-07-03 21:46:43
646
原创 Flask学习笔记
└── templates/ # 模板文件夹(必须命名为 templates)├── app.py # 您的 Flask 应用程序。└── hello.html # 您的模板文件。文件夹中查找模板文件。Flask 默认会从项目目录下的。
2025-06-23 21:23:30
250
原创 搭建网站时用到的技术
接下来创建项目文件夹 /data/demo进入demo目录中,创建虚拟环境成功会生成一个venv文件夹,接下来,激活虚拟环境激活成功,命令行最前方会出现(venv),代表现在是在虚拟环境中在虚拟环境中安装包,对真实机(系统全局环境)没有任何影响。虚拟环境的核心目的就是实现依赖隔离。
2025-06-23 17:43:14
331
原创 搭建加解密网站遇到的问题
要先自己创建python3的文件夹,它自己是不会创建的。(我在弄的时候make install没有自动创建python3,我自己创建了一个才安上)服务器在安装 SSH 服务时自动生成密钥对(公钥+私钥)防止中间人攻击(Man-in-the-Middle)
2025-06-22 16:55:35
227
原创 nginx服务器配置时遇到的一些问题
80是http协议的默认端口,在默认情况下,端口80(port 80)是服务器侦听网页客户端请求的端口。是在输入网站的时候其实浏览器(非IE)已经帮你输入协议了,所以你输入http//baidu.com,其实是访问 http://baidu.com:80,所以本地端口80默认可以不输入。master进程读取配置文件并管理worker进程,worker进程处理实际请求。发现是之前开启的httpd占用了80端口,关掉就能正常使用nginx了。CentOS 8.2 64位。1.在防火墙上打开相应端口。
2025-06-21 16:40:32
413
原创 CNVD-2022-10270/CNVD-2022-03672 向日葵RCE复现
漏洞名称:向日葵远程代码执行漏洞漏洞编号:CNVD-2022-10270CNVD-2022-03672影响版本:向日葵个人版 for Windows <= 11.0.0.33向日葵简约版 <= V1.0.1.43315(2021.12)不需要登录就存在这个漏洞,只要打开向日葵进程就有。
2025-06-04 16:10:50
434
原创 sql lab 7
在虚拟机里编辑环境变量一定要先确定再操作,否则是不会改变的。如果防火墙打开了,上传这个文件后会自动删掉。由于这个,所以上传成功,他也会报错。
2025-05-25 17:38:45
200
原创 二维数组与矩阵乘法
动态二维数组的C语言实现及其在矩阵乘法中的应用。代码首先定义初始化、随机化和打印二维数组所需的函数。矩阵乘法函数需要两个维数兼容的矩阵,并遍历结果矩阵的每个元素,对输入矩阵的相应元素求和。
2024-05-14 19:00:47
257
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人
RSS订阅
1