- 博客(65)
- 收藏
- 关注
原创 leetcode-只出现一次的数字
因此,如果将数组中所有的元素进行异或操作,出现两次的元素会相互抵消为 0,最终剩下的结果就是只出现一次的元素。异或运算满足交换律和结合律,即 a ⊕ b ⊕ a = (a ⊕ a) ⊕ b = 0 ⊕ b = b。任何数和 0 做异或运算,结果仍然是原来的数,即 a ⊕ 0 = a。任何数和其自身做异或运算,结果为 0,即 a ⊕ a = 0。
2024-03-10 14:31:24
358
原创 KNN和kmeans
它的主要思想是将给定的数据集分成 k 个簇,其中 k 是用户定义的常数。这些簇的类中心是数据集的部分均值,并且每个数据点属于离它最近的类中心所在的簇。K-Means算法的优点是在大规模数据集上可扩展,但它可能收敛到本地最小值,并且需要根据数据选择合适的k值。它的原理是根据给定的训练数据集,对新的输入实例进行分类。它的主要思想是找到最接近的 k 个训练数据集中的实例,并按照它们的多数类得出新实例的类别。因此,虽然它们的名称中都包含 “k”,但它们是不同的算法,用于不同类型的任务。
2024-03-06 09:37:20
159
原创 pytorch中gather函数
一般没遇到太好的讲解是不会写博客的https://www.bilibili.com/video/BV1Ly4y1n7dN?spm_id_from=333.337.search-card.all.click添加链接描述
2022-04-05 17:17:53
195
原创 CW攻击算法
1.CW攻击算法 - 搜索结果 - 知乎2.对抗攻击经典论文剖析(上)【FGSM、BIM、PGD、Carlini and Wagner Attacks (C&W)】_BugLess++的博客-优快云博客_pgd攻击3.对抗攻击8——CW(Carlini & Wagner)_鬼道2022的博客-优快云博客_cw攻击4.CW Attack论文阅读与总结_超自信面包QTQ的博客-优快云博客_cw论文5.[中文讲解] Towards Evaluating the Robustn
2022-03-20 20:49:12
4439
原创 torch.max(output, 2, keepdim=True)[1]
1、torch.max()torch.max(input) → Tensor返回 input tensor 中所有元素的最大值。torch.max(input, dim, keepdim=False) → output tensors (max, max_indices)参数:input:输入的 tensor。dim:按什么维度求最大值(2D中,0代表按列求最大值,1代表按行求最大值)。keepdim:是否保持 input tensor 的维度,True 代表 out tensor 与 in
2022-03-11 21:05:21
2279
1
原创 DeepFool
1.参考 1111在求对线性二分类器的最小扰动中,原文图如下。这里是二维平面,所以看图理解的时候应把样本看成有两个特征(分别沿横纵轴取值);决策超平面是一条直线wx+b=0。最小扰动向量的大小是从样本到决策超平面的距离,方向与超平面的法向量相反)...
2022-03-03 20:19:18
339
原创 FGSM。。。
Goodfellow等人认为高维空间下的线性行为足以产生对抗样本,对抗样本的线性解释:常见的数据图像大部分表示成1-255,8bit/像素点的形式,在原始样本上加小小的扰动就会被误分类。现在我们有:当存在一个小到可忽略的ε满足∥η∥∞<ε,我们期望分类器对这两个样本的分类结果一致,然而……现在考虑加入权值向量ω 信息,则:(权向量是带了权值的向量)对抗扰动通过ωTηωTη影响激活函数从而影响分类结果。如果ωω有nn个维度,权向量的一个元素的平均大小是mm,那么激活函数就会增加εmnεmn
2022-03-02 17:11:42
1048
原创 关于读残差梯度消失BN层的问题
https://www.cnblogs.com/jie-dcai/p/5803220.html这篇写的我认为有水平
2022-02-19 09:57:17
705
原创 残差论文翻译
摘要更深的神经网络更难训练。 我们提出了一个残差学习框架,以减轻网络训练的负担,这些网络比以前使用的网络要深得多。我们明确地将这些层重新定义为根据参考层的输入来学习残差函数,而不是学习无参考的函数。我们提供了全面的经验证据,表明这些残差网络更容易优化,并且可以从深度增加中获得准确性的提高。 在ImageNet数据集上,我们评测了深度达152层的残差网络,其深度是VGG网络8倍[40],却仍然有着相对较低的复杂度。 这些残差网络的集合在ImageNet测试集上取得了3.57%的错误率,这一成绩赢得了ILSV
2022-02-15 14:12:40
310
转载 残差网络ResNet
经典传统网络,看到残差时,不得不做个笔记因为太重要了在VGG中,卷积网络达到了19层,在GoogLeNet中,网络史无前例的达到了22层。那么,网络的精度会随着网络的层数增多而增多吗?在深度学习中,网络层数增多一般会伴着下面几个问题计算资源的消耗模型容易过拟合梯度消失/梯度爆炸问题的产生问题1可以通过GPU集群来解决,对于一个企业资源并不是很大的问题;问题2的过拟合通过采集海量数据,并配合Dropout正则化等方法也可以有效避免;问题3通过Batch Normalization也可以避免。貌似我们
2022-02-14 21:15:04
1032
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人