
机器学习
hb_ma
这个作者很懒,什么都没留下…
展开
-
embedding层
参照:embedding层_万物皆Embedding,从经典的word2vec到深度学习转载 2021-03-24 21:13:54 · 188 阅读 · 0 评论 -
adaboosting简介
本文转发至http://blog.51cto.com/baidutech/743809,只是为了以后阅读方便,如有侵权,请联系,马上删除。一、Boosting算法的发展历史 Boosting算法是一种把若干个分类器整合为一个分类器的方法,在boosting算法产生之前,还出现过两种比较重要的将多个分类器整合为一个分类器的方法,即boostrapping方法和bagging方法。我们先简要...转载 2018-09-13 17:32:52 · 1127 阅读 · 0 评论 -
【目标检测】目标检测原理与实现(五)--基于Cascade分类器的目标检测
本文转载自http://blog.youkuaiyun.com/marvin521/article/details/9173645,转载为了以后阅读方便,如有侵权,请联系,立刻删除。基于Cascade分类器的目标检测 从今天开始进入基于机器学习的目标检测,前几节虽然也接触了一些机器学习的方法,但它主要是做辅助工作,机器学习的方法和非机器学习的方法结合在一起使用,说到这想起来前几天看到...转载 2018-09-13 17:36:10 · 1233 阅读 · 0 评论 -
covariate shift和Internal covariate shift
1.covariate shift在论文中经常碰到covariate shift这个词,网上相关的中文解释比较少。你可能会在介绍深度学习Batch Normalization方法的论文到中看到covariate shift这个词,并且所有看过这篇论文的或者实际做过工程的人,都知道BN这种归一化手段很好用,可以避免covariate shift那么covariate shift到底是什么?...原创 2018-11-24 23:53:03 · 1315 阅读 · 0 评论 -
L2/L1正则化方法
L2/L1正则化方法,就是最常用的正则化方法,它直接来自于传统的机器学习。L2正则化方法如下:L1正则化方法如下:那它们俩有什么区别呢?最流行的一种解释方法来自于模式识别和机器学习经典书籍,下面就是书中的图。这么来看上面的那张图,参数空间(w1,w2)是一个二维平面,蓝色部分是一个平方损失函数,黄色部分是正则项。蓝色的那个圈,中心的点其实代表的就是损失函...原创 2019-03-20 11:04:24 · 676 阅读 · 0 评论 -
OutOfRangeError (see above for traceback): PaddingFIFOQueue '_1_get_batch/batch/...系列错误
错误 tensorflowOutOfRangeError (see above for traceback): PaddingFIFOQueue '_1_get_batch/batch/padding_fifo_queue'或OutOfRangeError (see above for traceback): PaddingFIFOQueue '_2_get_batch/batch...原创 2019-07-19 23:09:56 · 1324 阅读 · 0 评论 -
池化到底有什么用 pooling
部分内容转载自:https://mp.weixin.qq.com/s/sS75fWhgcIW2w2JCbs8YKQ今天来说说深度学习中的池化问题,包含池化的种类,作用机制以及最新的思考。1 池化还要不要了通常我们认为,池化可以增加网络对于平移的不变性,对于网络的泛化能力的提升是非常关键的。不过,到底能起到多大的正向作用,却是被很多人怀疑的。首先是Hinton,还记得Hinton提出...转载 2019-08-06 11:45:36 · 4514 阅读 · 0 评论