CNN
文章平均质量分 82
xihang_alpha
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
CNN经典模型总结
转自:http://www.open-open.com/lib/view/open1473213789568.html参考:http://blog.youkuaiyun.com/qq_17754181/article/details/59111864?locationNum=14&fps=1略有删改。LeNet5LeNet5 诞生于 1994 年,是最早的卷积神经网络之一,并且推动了深度学习领域的发展。自转载 2017-04-15 21:03:41 · 7291 阅读 · 0 评论 -
Re-thinking Deep Residual Networks
本文是对ImageNet 2015的冠军ResNet(Deep Residual Networks)以及目前围绕ResNet这个工作研究者后续所发论文的总结,主要涉及到下面5篇论文。转载 2017-04-15 21:55:20 · 515 阅读 · 0 评论 -
ResNet,DenseNet,以及残差家族
转自:http://blog.youkuaiyun.com/cv_family_z/article/details/50328175CVPR2016 https://github.com/KaimingHe/deep-residual-networks这是微软方面的最新研究成果, 在第六届ImageNet年度图像识别测试中,微软研究院的计算机图像识别系统在几个类别的测试中获得第一名。本文是解决超深度CNN转载 2017-04-16 10:35:39 · 4219 阅读 · 0 评论 -
ALEXNET解读
转自csdn blog这篇博客讲现在很流行的两种网络模型,ResNet和DenseNet,其实可以把DenseNet看做是ResNet的特例 文章地址: [1]Deep Residual Learning for Image Recognition,CVPR2015 [2]Densely Connected Convolutional Networks,CVPR2016本篇博客不讲论文的内容,转载 2017-04-16 10:56:33 · 2612 阅读 · 0 评论 -
2014-Network In Network
Network In Network学习笔记原文地址:http://blog.youkuaiyun.com/hjimce/article/details/50458190作者:hjimce一、相关理论本篇博文主要讲解2014年ICLR的一篇非常牛逼的paper:《Network In Network》,过去一年已经有了好几百的引用量,这篇paper改进了传统的CNN网络,采用了少量的参数就松松击败了Alexne转载 2017-04-16 12:20:54 · 409 阅读 · 0 评论 -
(Paper)Network in Network网络分析
本文地址:http://blog.youkuaiyun.com/mounty_fsc/article/details/51746111《Network in Network》论文笔记1.综述这篇文章有两个很重要的观点:1×1卷积的使用 文中提出使用mlpconv网络层替代传统的convolution层。mlp层实际上是卷积加传统的mlp(多层感知器),因为convolution是线性的,而mlp是非线性的转载 2017-04-16 12:59:35 · 525 阅读 · 0 评论 -
Network in Network
一.文献名字和作者 Network In Network.Min Lin, Qiang Chen, Shuicheng Yan 二.阅读时间 2014年11月19日三.文献的目的 文章主要是对于CNN结构进行改进,使得CNN能够学习到更加抽象和有效的非线性特征。四.文献的贡献点4.1 卷积层的改进–多层感知卷积层 传统的卷积层只是将前一层的特征进行了线转载 2017-04-16 13:19:04 · 406 阅读 · 0 评论
分享