
dl
jiachen0212
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
Squeeze-and-Excitation Networks SE-net
ImageNet 2017夺冠架构:SENet paper传送门参考链接:传送门1 传送门2核心思想我认为是:不再使用传统的对输入通道经卷积后的结果通道们,进行简单的叠加,而是去寻找各通道间的相关性,给予各通道不同的权值,然后再进行加权求和。这个通道间的权值,通过学习得到。上图: S:首先是压缩,squeeze()把一个通道的map(尺寸为 mxn )压缩成一个数...原创 2018-06-01 20:27:05 · 1101 阅读 · 0 评论 -
BP反向传播算法推导
传送门传送门输出层梯度求解过程如上图所示,为一个输出层神经元,在计算输出层梯度的时候,我们不用去考虑前一层是如何输入的。所以我们用y来表示,图中的y(n)表示第n个样本在前一层的输出值,这一层的输入值。我们将当前节点定义为j。那么当前节点j的输入值之和为 这里的m是节点j前一层的输入节点的个数,其中包括一个偏置项b。这里的公式都很像,看公式注意下标。然后节点j的输出要经过激活函数,如图所示我们定...转载 2018-06-01 14:18:11 · 1665 阅读 · 0 评论 -
Semantic segmentation paper reading notes... (更新中...)
参考:知乎传送门 csdn传送门1. 逐渐摒弃对每个 pixel 进行类别分类的分割思想,而是把一个物类所包含的所有 pixels 看作一个整体。 尽量的实现类内一致和类间差别。(Face++的DFN:SN+BN) paper 还加入了全局语境和高层特征引导底层特征学习的思想。 paper2. 主动的去解决或者减轻,样本数不均衡(指的是,每个类别内含有的 pixels 个数不...原创 2018-05-31 11:36:25 · 421 阅读 · 0 评论 -
Object Detection.... (更新中....)
gengxinzhong....原创 2018-06-03 23:12:25 · 944 阅读 · 0 评论 -
Adam那么棒,为什么还对SGD念念不忘
本文转载自「机器学习炼丹记」,搜索「julius-ai」即可关注。 原文链接:小象(一)一个框架看懂优化算法机器学习界有一群炼丹师,他们每天的日常是:拿来药材(数据),架起八卦炉(模型),点着六味真火(优化算法),就摇着蒲扇等着丹药出炉了。不过,当过厨子的都知道,同样的食材,同样的菜谱,但火候不一样了,这出来的口味可是千差万别。火小了夹生,火大了易糊,火不匀则半生半糊。机器学习也是一样,模型优化算...转载 2018-04-25 22:27:52 · 27778 阅读 · 12 评论 -
L1 L2正则化修正版
参考博文:L1 L2详解正则化主要是刻画模型的复杂度,使得模型不任意的拟合数据中的随机噪声点。cvte一面面了这个,根据他的提示,更新对L1、L2正则的理解:1. L1正则化可以产生稀疏权值矩阵,即产生一个稀疏模型(w比较多等于0..),可用于特征选择. C是损失函数(loss)首先解释为什么参数变稀疏了:因为L1正则是|w|,在训练使loss(即C)变小的过程中,|w|也是在变小的...什么...原创 2018-04-25 14:24:00 · 429 阅读 · 0 评论 -
防止过拟合篇 : 正则化方法:L1和L2 regularization、数据集扩增、dropout
转载自:l1、l2、dropout、...避免过拟合的方法:early stopping、数据集扩增(Data augmentation)、正则化(Regularization,dropout等。正则化方法:防止过拟合,提高泛化能力在训练数据不够多时,或者overtraining时,常常会导致overfitting(过拟合)。其直观的表现如下图所示,随着训练过程的进行,模型复杂度增加,在train...转载 2018-04-20 09:21:32 · 1265 阅读 · 0 评论 -
卷积神经网络结构变换-STN
出自Bin的专栏:http://blog.youkuaiyun.com/xbinworld 原文链接:传送门今天具体介绍一个Google DeepMind在15年提出的Spatial Transformer Networks,相当于在传统的一层Convolution中间,装了一个“插件”,可以使得传统的卷积带有了[裁剪]、[平移]、[缩放]、[旋转]等特性;理论上,作者希望可以减少CNN的训练数据量,以及减少...转载 2018-04-10 22:22:13 · 2689 阅读 · 4 评论 -
全连接层与卷积层的区别
传送门一.全连接层: 全连接层需要把输入拉成一个列项向量,如下图所示: 比如你的输入的feature map是2X2,那么就需要把这个feature map 拉成4X1的列向量,如果你的feature map 的channels是3,也就是你的输入是3X2X2,也就是相当于有了12个像素点,你就需要把feature map 拉成12X1的列...转载 2018-09-07 14:43:23 · 24439 阅读 · 4 评论