深度学习——名词总结篇

103. HIN(异构信息网络)

 

102. Hypergraph(超图):

  • 一条边上有多个点的图
  • 二阶超图: 平时使用的图
  • 三阶超图: 

在这里插入图片描述

 

 

 

101.hard sample mining:

  • 取那些识别不好的样本再次进行模型微调

 

100.ground truth:

  • 直述:有监督学习里的真值,有效值,标准值

 

90.范数:

  • 范数主要是对矩阵和向量的一种描述,有了描述那么“大小就可以比较了”,从字面理解一种比较构成规范的数。有了统一的规范,就可以比较了。
  • 例如:1比2小我们一目了然,可是(3,5,3)和(6,1,2)哪个大?不太好比吧
  • 矩阵范数:描述矩阵引起变化的大小,AX=B,矩阵X变化了A个量级,然后成为了B。
  • 向量范数:描述向量在空间中的大小。更一般地可以认为范数可以描述两个量之间的距离关系。
  • L-0范数:用来统计向量中非零元素的个数。
  • L-1范数:向量中所有元素的绝对值之和。可用于优化中去除没有取值的信息,又称稀疏规则算子。
  • L-2范数:典型应用——欧式距离。可用于优化正则化项,避免过拟合。
  • L-∞范数:计算向量中的最大值。

 

89.梯度裁剪:

  • 直述:使得梯度不超过一个阈值
  • 目的:解决梯度消失,梯度爆炸问题
  • 公式:
    • 把所有梯度接成一个向量g
    • 假设裁剪的阈值是\Theta
    • 则,裁剪使得||g||不会超过\Theta

 

88.核范数:

  • 矩阵奇异值的和,用于约束矩阵的低秩
  • 对于稀疏性质的数据而言,其矩阵是低秩且会包含大量冗余信息
  • 冗余信息可被用于恢复数据和提取特征

 

87.奇异值:

  • 矩阵里的概念
  • 一般通过奇异值分解定理求得
  • 定义:设A为m*n阶矩阵,q=min(m,n), A*A的q个非负特征值算数平方根,叫做A的奇异值
  • 奇异值分解是线性代数和矩阵论中一种重要的矩阵分解法,适用于信号处理和统计学等领域

 

86.拉普拉斯矩阵:

  • L=D-A: D----度矩阵,A----领接矩阵
  • 拉普拉斯矩阵是半正定矩阵
  • 特征值中0出现的次数就是图连同区域的个数
  • 最小特征值是0, 因为拉普拉斯矩阵每一行的和均为0
  • 最小非零特征值是图的代数连通度

85.弱监督学习:

  • 已知:数据和其一一对应的弱标签
  • 目的:学习映射,将数据映射到更强的一组标签
  • 解释:标签的强弱是指标签蕴含信息量的多少
  • 例:已知图中有一只猪,学习住在哪,猪和背景的分界线

84.Benchmark

  • 基准

83.Monocular Depth Estimation:单目深度估计

  • 直述:从二维图像中,估计出三维空间

分割线:倒着来。。。。。。。。。。。。。。。


1.Memory:

  • 我的出处:ECN。元学习时提及此方式。
  • 原理:目标域的图片经网络题取出特征向量,存储到memory中;下一次新的即可和上次的做聚类;
  • 公式:k[i]=\alpha k[i]+(1-\alpha )f(x_i) (其中\alpha是随着epoch不断线性增加的:\alpha =0.01*epoch   PS:但为什么新特征的影响会越来越大?)
  • 用处:
  •          1.Domain Adaptation,用新提取出的特征向量和旧的做聚类,可使模型在目标域上的泛化能力增强
  •          2.因为是在整个训练过程中不断积累,所以能够很好地传递全局性质,不仅仅只在一个batch中。

2.Domain Adaptation:域适应

  • 我的出处:ECN的主题。老师提及。语义分割也有此问题。           
  • 描述:用源域训练数据得到模型,在目标域上的泛化能力不强。
  • 背景:常常出现在无监督和半监督学习。

3.Semantic Segmentation:语义分割

4.GCN:图卷积

  • 我的出处:师兄提到过,CVPR19的工作中,不仅有可以做多标签识别,还有做半监督的,所以有必要~
  • 背景:可以把图(邻阶矩阵)做输入,以探究信息训练模型
  • 原理:

                 (1)输入:

                                   1)特征矩阵\small X=N*F^{0} (节点数,每个结点的特征数)

                                   2)邻阶矩阵A

                   (2) 隐藏层的传播规则:\small \sigma (AXW)  (\small \sigma:非线性激活函数,W:权重矩阵,决定了下一层的特征数)

  • (补)拉普拉斯矩阵:

  

                               1)\small L=D-A

                               2)\small L^{sys}=D^{-1/2}LD^{-1/2}(GCN很多论文中用这种)

                               3)\small L^{rw}=D^{-1}L

  • 相关名词:谱聚类,拉普拉斯矩阵,传播规则

5.Residual Network:残差网络(大名鼎鼎的ResNet)

  • 我的出处:ECN修改预训练模型的时候,作者提及未懂。接下来时间又见到很多次。
  • 背景:用深度网络比用浅层网络在训练集上的效果更差(不是过拟合:注意因为不是在测试集而是在训练集上)
  • 作用:解决网络退化问题。即又保持了深的网络的高准确度,又避免了它会退化的问题。
  • 实现:shortcut(identity mapping)\small y=F(x)+x(其实很简单:每一层不仅取决于上一层,还要取决于很久之前的层)

è¿éåå¾çæè¿°

  • 存在的问题:如果
评论 2
成就一亿技术人!
拼手气红包6.0元
还能输入1000个字符
 
红包 添加红包
表情包 插入表情
 条评论被折叠 查看
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值