- 博客(23)
- 收藏
- 关注
原创 自组织映射神经网络(SOM)
自组织映射神经网络(Self-Organizing Map,SOM)是无监督学习方法中一类重要方法,可以用作聚类、高维可视化、数据压缩、特征提取等多种用途,其融入了大量人脑神经元的信号处理机制,有着独特的结构特点。...
2022-06-19 19:37:39
5387
原创 为什么用生长型神经气体网络(GNG)?
上世纪 90 年代,人工神经网络研究人员得出了一个结论:有必要为那些缺少网络层固定拓扑特征的运算机制,开发一个新的类。也就是说,人工神经在特征空间内的数量和布置并不会事先指定,而是在学习此类模型的过程中、根据输入数据的特性来计算,独立调节也与其适应。...
2022-06-19 19:10:32
3593
1
原创 【机器学习】决策树与集成算法问题简单总结
决策树算法既可以应用于分类任务也可以用于回归任务训练阶段:给定训练数据集中根据特征构建数测试阶段:根据构建好的树模型进行预测即可
2022-06-15 22:49:53
430
原创 【论文解读】前向可兼容的少样本增量学习
本文关注的问题是少样本类增量学习(Few Shot Class Incremetal Learning, FSCIL)当前主流的方法基本上都是在学习新类的同时不忘记旧类,侧重于对于旧类的遗忘问题,本文中称这种为后向兼容性。
2022-06-14 21:15:22
3212
2
原创 【论文解读】vCLIMB: 一种新颖的视频类增量学习基准
持续学习(CL)在视频域中探讨了不足。存在很少的工作包含在任务中划分不平衡的类分布,或者在不合适的数据集中研究问题。我们介绍了vCLIMB,这是一个新颖的视频持续学习基准。
2022-06-14 20:10:38
696
原创 深度学习中的优化算法如何理解--SGD
文章目录1. SGD算法学了很久的深度学习,忽然感觉对于知识的摄入只是填鸭式学习,少了主动思考,因此准备就简单问题的理解出发对已经学习知识做系统整理。提到优化算法那么就要涉及到优化问题,简单介绍一下什么是凸集、凸函数、凸优化。凸集:集合中任意两个样本连接后的线段仍然属于集合,那么就是凸集。凸函数:两个自变量的函数值求和总是大于等于自变量中值的函数值。凸优化:给定变量属于凸集,目标函数是凸函数,那么求解这一问题就是属于凸优化问题。(但是深度学习中大多数都是非凸问题…,简单理解,多多指正)1.
2022-03-01 22:11:25
2232
原创 【论文精读】基于骨架行为识别(一)—STGCN
论文链接文章目录1. 摘要2. 介绍3. 相关工作4. 时空图卷积5. 实验6. 总结1. 摘要2. 介绍3. 相关工作4. 时空图卷积5. 实验6. 总结
2022-02-25 22:00:38
11156
1
原创 【论文精读】一类分类器(一)—DSVDD
文章目录摘要1.介绍2.相关工作3.Deep SVDD3.1 深度支持向量描述器目标摘要尽管深度学习在许多机器学习问题上取得了巨大的进步,但异常检测的深度学习方法相对缺乏。那些存在的方法包括训练网络来执行异常检测以外的任务,即生成模型或压缩,它们反过来适用于异常检测,他们没有训练基于异常检测的目标。在这篇文章中介绍一种新的异常检测方法-DSVDD,训练是基于异常检测目标的。对深层体制的适应需要我们的神经网络和训练过程满足某些性质,这是我们在理论上证明的。我们在MNIST和CIFAR-10(图像基准数据集
2022-02-24 19:43:07
4354
1
原创 西瓜书知识总结(第六章)
支持向量机基本概念理解支持向量:距离超平面最近的几个训练样本点间隔:两个异类支持向量到超平面的距离之和支持向量机基本型对偶问题求解支持向量机问题就是求取最大间隔的 www 和 bbb ,即得到超平面使用拉格朗日乘子法可得到其“对偶问题”,拉格朗日函数如下:为什么通过对偶问题求解?KKT条件?软间隔基本原理:支持向量回归基本理解:算法原理:基本梳理,未完待续…参考链接:《西瓜书》、支持向量机、软间隔和支持向量回归...
2022-01-27 12:08:59
277
原创 西瓜书知识总结(第五章)
神经网络M-P神经元单个M-P神经元:感知机(sgn作为激活函数)、对数几率回归(sigmoid作激活函数)多个M-P神经元:神经网络感知机模型:激活函数为sgn(阶跃函数)的神经元从几何角度来说,给定一个线性可分的数据集T,感知机的学习目标是求得能对数据集T中的正负样本完全正确划分的超平面,其中 wTx−θ\pmb{w}^{\mathrm{T}}\pmb{x}-\thetawwwTxxx−θ 即为超平面方程感知机学习策略:随机初始化 w,b\pmb{w}, bwww,b,将全体训练样本代入
2022-01-23 13:55:37
810
原创 西瓜书知识总结(第四章)
决策树系列之前啃西瓜书,发现理论太深,因此换了个角度作知识总结。决策树是什么?决策树是采用树形结构用于推理判断最后实现分类的算法。信息熵是什么?信息熵是度量样本集合纯度最常见的一种指标,Ent(D)=−∑k=1∣y∣pklog2pkEnt(D)=-\sum_{k=1}^{|y|}p_k\log_2{p_k}Ent(D)=−∑k=1∣y∣pklog2pk 即样本D的信息熵,pkp_kpk是样本所占比例,结论是:信息熵值越小,纯度越高基尼指数是什么?基尼指数反映了从数据集D中随机抽取两
2022-01-20 21:19:56
1021
原创 日常问题:L1范数和L2范数在机器学习中的作用?
L1范数就是向量元素的绝对值之和L2范数就是向量元素的各元素平方和再开根号作为损失函数,L1损失和L2损失解释:损失函数即真实值与预测值之间的差异性度量,L1损失就是所有样本真实与预测值的差值的绝对值之和,L2损失即所有样本真实与预测值的差值的绝对值的平方和优缺点分析:L2损失一定有一条最优的预测线,L1损失可能存在多个解;L1损失对异常值不敏感,鲁棒性更强正则化技术使用到L1正则和L2正则解释:正则化技术就是为了防止过拟合,所以限制了学习的权重,L1正则即权值的绝对值之和,L2正则即
2022-01-18 22:41:51
2678
原创 西瓜书知识总结(第三章)
线性模型机器学习三要素:模型、策略、算法。1.基本形式什么是线性模型?通过属性的线性组合构成预测函数,该函数就是属于线性模型f(x)=w1x1+w2x2+…+wdxd+bf(\pmb{x}) = w_1x_1+w_2x_2+\ldots+ w_dx_d+bf(xxx)=w1x1+w2x2+…+wdxd+b向量形式是 f(x)=wTx+bf(x)=\pmb{w}^{\mathrm{T}}\pmb{x}+bf(x)=wwwTxxx+b,这里的 w\pmb{w}www 和 b\pmb{b
2022-01-17 16:05:20
1413
原创 西瓜书知识总结(第一、二章)
西瓜书知识总结(第一、二章)第一章基本术语:属性(attribute)或者特征(feature)构成属性空间(attribute space)、样本空间(sample space)或输入空间d维样本空间 XXX,d即属性的个数YYY是标记空间(label space)或输出空间机器学习大致分为监督学习(supervised learning)与非监督学习(unsupervised learning)学得模型适用于新样本的能力,称为"泛化能力"假设空间,我的理解就是样本属性所有可能的组合集合空
2022-01-11 11:51:27
596
原创 池化分类、作用简单总结
池化分类平均池化:对邻域内特征点求平均正向传播:邻域内取平均反向传递:梯度根据邻域大小被平均,然后传递给索引位置参考链接:平均池化最大池化:对邻域内特征点求最大值正向传播:邻域内求最大值,并记住索引位置,用于反向传播反向传播:梯度传播到邻域内最大值的索引位置,其他位置补0参考链接:最大池化全局平均池化:特征图全局平均一下输出一个值,常与全连接层做对比全局自适应池化:自适应池化Adaptive Pooling会根据输入的参数来控制输出output_size,而标准的Max/AvgP
2021-09-15 21:57:42
4144
原创 全连接-普通卷积-深度可分离卷积-分组卷积-计算量和参数量
全连接-普通卷积-深度可分离卷积-分组卷积-计算量和参数量一个全连接的参数量:params=(Ni+1)×No params=(N_i+1)\times{N_o} params=(Ni+1)×No其中,NiN_iNi 表示输入特征向量权重个数,NoN_oNo 表示输出特征向量的权重个数,+1表示偏置,直接理解参数量与输入输出个数有关。一个全连接的计算量:FLOPs=[Ii+(Ii−1)+1]×Io FLOPs= [I_i+(I_i-1)+1]\times{I_o} FLOP
2021-09-11 23:21:39
2260
2
原创 pytorch学习记录(一)
pytorch笔记1-scatter_用法1.源自:pytorch教程-transformsimport torch from torchvision import datasetsfrom torchvision.transforms import ToTensor, Lambdads = datasets.FashionMNIST( root="data", # 设置数据集的本地路径 train=True, # 数据为训练集 download=T
2021-09-07 09:47:53
133
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人