
深度学习之基础知识
文章平均质量分 80
该专栏主要是整理深度学习领域的基础知识,也是博主的笔记。
Florrie Zhu
深度学习的小迷妹
展开
-
【深度学习】attention机制
注意力机制,主要是引导模型忽略无关信息而关注重点信息。原创 2022-08-06 15:31:40 · 1363 阅读 · 0 评论 -
【深度学习】非极大抑制算法 及python代码
NMS的目的是,消除多余的框,只保留最佳预测框。附上源代码。原创 2022-01-04 16:14:49 · 1288 阅读 · 3 评论 -
【深度学习】目标检测之评价指标
梳理目标检测领域常用的几个评价指标,准确率Precision,召回率Recall,交并比IoU,平均精度AP,多个类别AP的平均值即mAP。原创 2022-01-03 21:31:50 · 3785 阅读 · 0 评论 -
【深度学习】归一化(十一)
文章目录什么是归一化易混淆概念--标准化为什么要归一化Batch NormalizationWeight Normalization总结今天要学习的内容是一个小知识点:归一化什么是归一化归一化(Normalization): 是一种无量纲处理手段,即将有量纲的表达式,经过变换,化成无量纲的表达式,称为标量。通常来说,想比较两个有度量单位的物理量是不可以的,但是我们可以先将度量单位去掉,变...原创 2020-03-30 14:48:14 · 8078 阅读 · 0 评论 -
【深度学习】梯度下降与梯度爆炸(十)
文章目录导数与方向导数梯度梯度下降举个栗子梯度爆炸与消失引起的原因总结今天要整理的内容有关梯度。从这篇文章,你可以了解到什么是梯度,梯度又是怎样下降的,怎样通过下降来更新参数,以及在下降过程中,为什么会出现消失和爆炸的问题及其解决方案。导数与方向导数关于导数最简单的理解就是:函数在某一点切线的斜率,被称为函数在该点上的导数。如果想用数学公式来理解的话:假设函数y=f(x),自变量在x0x...原创 2020-03-27 11:29:51 · 1208 阅读 · 0 评论 -
【深度学习】介绍六大类损失函数(九)
文章目录写在最前面的话:本文主要整理深度学习中的损失函数,从原理到作用,详细了解损失函数。原创 2020-03-24 16:49:38 · 14097 阅读 · 2 评论 -
【深度学习】SVM解决线性不可分情况(八)
文章目录线性不可分情况思路一:引入松弛变量和惩罚因子思路二:使用核函数这篇文章是上一篇文章(七)的补充版,因为(七)的内容太长了,一下子全部看完会搞混,所以分开写了。线性不可分情况在介绍SMO算法之前,我还需要插入一小段,来介绍线性不可分的情况。在上面,我们提到了SVM是用来解决二元线性分类问题,也就是通过SVM总能找到一个超平面严格地将数据分成两类,那么对于线性不可分(非线性),不能找...原创 2020-03-19 16:29:38 · 5738 阅读 · 0 评论 -
【深度学习】全面理解支持向量机SVM(七)
文章目录1.初探-SVM概念2.线性分类器3.最大间隔4.如何求最优分类4.1线性可分-线性不可分类型4.2核函数4.3原始问题的对偶转化4.3.1使用KKT条件终于到了梳理支持向量机(SVM) 这个大知识点了,好鸡冻!!!因为理解SVM牵涉的内容实在是太多了:分类函数,最大化分类间隔,凸二次规划,拉格朗日乘数法、原始问题与对偶问题的转换,KKT条件,SMO算法等等。。。这些内容其实可归为最优...原创 2020-03-15 14:30:47 · 1640 阅读 · 5 评论 -
【深度学习】原始问题和对偶问题(六)
今天要扫盲的知识点是原始问题和对偶问题,这个知识点主要牵涉拉格朗日乘数法。整理这个知识点,主要是为理解下一个知识点(支持向量机)做准备的!文章目录引言原始问题拉格朗日乘数法拉格朗日求解原始问题对偶问题两者关系Karush Kuhn-Tucher条件,KKT引言原问题,又称原线性规划问题,是指每一个线性规划的原始问题,每个原问题均可以转化为与其对称的对偶问题。原问题与对偶问题是相对的,二者...原创 2020-03-10 17:35:35 · 11893 阅读 · 9 评论 -
【深度学习】梳理凸优化问题(五)
文章目录约束优化问题凸函数凸优化问题凸二次规划问题额外补充正定和半正定矩阵约束优化问题minw f(w)s.t. gi(w)≤0 (i=1,...,k)hj(w)=0 (j=1,...,n)\begin{array}{rcl}&&min_w\;f(w)\\s.t.\;g_i(w)&\leq&0\;(i=1,...,k)\\h_j(w)&=&...转载 2020-03-09 14:06:24 · 4002 阅读 · 3 评论 -
【深度学习】前向传播和反向传播(四)
【深度学习】前向传播和反向传播(四)写在最前面的话:今天要梳理的知识点是深度学习中的前/反向传播的计算,所需要的知识点涉及高等数学中的导数运算。在深度学习中,一个神经网络其实就是多个复合函数组成。函数的本质就是将输入x映射到输出y中,即f(x)=yf(x)=yf(x)=y,而函数中的系数就是我们通过训练确定下来的,那么如何训练这些函数从而确定参数呢?这就涉及网络中的两个计算:前向传播和反向...原创 2020-03-05 17:20:24 · 2963 阅读 · 0 评论 -
【深度学习】模型选择、欠/过拟合和感受野(三)
【深度学习】模型选择、欠/过拟合和感受野(三)写在最前面的话:这一篇文章要整理的知识点有点稀疏,内容不是很多。模型选择在深度学习中,不同的参数设置,不同的隐层数量对模型都有相应的影响,但是经过训练后,它们最终都可以达到相同的实验结果,那么我们该如何对这些模型作选择呢,对不同的条件下的模型选出一个相对较好的模型?其实,模型的选择方式可以通过超参数的设置,模型的容量、验证集的情况来定。泛化...原创 2020-03-04 15:09:24 · 1175 阅读 · 0 评论 -
【深度学习】梳理范数与正则化(二)
【深度学习】梳理范数与正则化(二)今天要梳理的知识是范数与正则化。文章完全根据个人理解写,如有不对,欢迎指出!!正则化正则化是一种对学习算法的约束,主要是为了防止过拟合(下一次会梳理这个知识点),从而增强模型的泛化能力。泛化能力 是指模型对位置数据的预测能力,是一种用于评估机器学习算法的能力的指标。泛化误差可以反映模型的泛化能力,误差越小,模型越稳定。泛化误差(generalizatio...原创 2020-03-03 15:55:46 · 2801 阅读 · 0 评论 -
【深度学习】深度学习概念的理解(一)
【深度学习】深度学习的理解(一)写在最前面的话:设置【深度学习】栏,主要是为了扫盲深度学习的各个知识点,希望通过这种方式来给自己的基础打扎实,从头开始学习!如果有写得不对的地方,请指正!!!谢谢深度学习在现在已经是非常成熟了,生活的方方面面都可以用上深度学习技术,那么其实什么是深度学习?直观地说,是计算机从经验中学习到知识来理解/解决问题,这里的**“经验”可以理解是深度,“学习”是指经过...原创 2020-03-02 17:03:06 · 2446 阅读 · 0 评论