
找工作的二三事儿
zqnnn
这个作者很懒,什么都没留下…
展开
-
机器学习——L1和L2正则化
正则化(Regularization)训练机器学习模型的要点之一是避免过拟合。如果发生过拟合,模型的精确度会下降。这是由于模型过度尝试捕获训练数据集的噪声。噪声,是指那些不能代表数据真实特性的数据点,它们的生成是随机的。学习和捕捉这些数据点让你的模型复杂度增大,有过拟合的风险。正则化是一种回归的形式,它将系数估计(coefficient estimate)朝零的方向进行约束、调整或缩小。也...转载 2019-03-06 09:17:12 · 473 阅读 · 0 评论 -
深度学习——Bottleneck Layer
Bottleneck Layer //BottleneckFeatures // Bottleneck Block输入输出维度差距较大,就像一个瓶颈一样,上窄下宽亦或上宽下窄"In order to reduce the number of weights, 1x1 filters are applied as a "bottleneck" to reduce the number ...转载 2019-03-06 16:42:50 · 7355 阅读 · 2 评论 -
机器学习——SVM
转载自https://zhuanlan.zhihu.com/p/49331510定义Support Vector Machine,简称SVM,支持向量机,是一种二类分类模型,基本模型是定义在特征空间上的间隔最大的线性分类器。SVM的学习策略就是间隔最大化。直观理解图中有分别属于两类的一些二维数据点和三条直线。如果三条直线分别代表三个分类器的话,请问哪一个分类器比较好?我们凭直...转载 2019-03-04 09:37:47 · 2465 阅读 · 0 评论 -
深度学习——Internal Covariate Shift与Normalization
转载自https://blog.youkuaiyun.com/sinat_33741547/article/details/87158830Internal Covariate Shift与Normalization一、“Internal Covariate Shift”问题什么是“Internal Covariate Shift”?深度神经网络涉及到很多层的叠加,而每一层的参数更新会导致上...转载 2019-03-04 14:05:07 · 3507 阅读 · 5 评论 -
深度学习——Batch Normalization
Batch NormalizationBatchNorm的基本思想:能不能让每个隐层节点的激活输入分布固定下来呢?这样就避免了“Internal Covariate Shift”问题了。之前的研究表明如果在图像处理中对输入图像进行白化(Whiten)操作的话——所谓白化,就是对输入数据分布变换到0均值,单位方差的正态分布——那么神经网络会较快收敛BN作者就开始推论了:图像是深度神经网络的输...原创 2019-03-04 14:21:45 · 532 阅读 · 0 评论 -
动态规划——背包问题
问题描述:有n个物品,编号1,2,3,、、n,其中第 i 个物品重量为Wi 价值 Vi ,有一个容量为W的背包。在容量允许范围内,如何选择物品,可以得到最大的价值。(为了简单起见,假设物品的重量 Wi 和价值Vi 都是正数)根据取物品的方式,背包问题又可以被分为三类:0/1背包问题(0-1 knapsack problem)这也是最常见的背包问题,对于每个物品,要么取...原创 2019-03-19 17:02:50 · 463 阅读 · 0 评论 -
【计算机视觉笔记】图像检索学习 (Content Based Image Retrieval)
论文跟踪:Awesome image retrieval papers https://github.com/willard-yuan/awesome-cbir-papers综述:SIFT Meets CNN: A Decade Survey of Instance Retrievalgithub Overview:Guide-CBIR CBIR_LeaderBoard ...转载 2019-03-18 14:49:45 · 8541 阅读 · 3 评论