
论文笔记
sherilindas
这个作者很懒,什么都没留下…
展开
专栏收录文章
- 默认排序
- 最新发布
- 最早发布
- 最多阅读
- 最少阅读
-
数据增强-RanDom Erasing Data Augmentation[论文笔记]
RanDom Erasing Data Augmentation 随机遮盖-数据增强 论文链接 Abstract 作者想解决什么问题?question 增强模型鲁棒性,减少模型过拟合 作者通过什么理论/模型来解决这个问题?method 通过论文提出的Random Erasing,对图片进行随机的遮挡,也可视为添加噪声 Introduction 作者为什么研究这个课题? 为了提高CNN的泛化能力,有许多数据增强方法提出( random cropping,flipping,dropout,bn). 对数据做阻塞原创 2020-06-05 22:33:17 · 825 阅读 · 0 评论 -
WRN[论文笔记]
论文: Wide Residual Networks 论文地址 简介 随着模型深度的加深,梯度反向传播时,并不能保证能够流经每一个残差模块的权值,以至于它很难学到东西.训练十分深的残差网络仍会有特征重用消失的问题,训练速度会减慢. wide residual networks (WRNs)减少深度,但是增加了残差块的宽度.作者希望使用一种较浅的,但是宽度更宽的模型,来更加有效的提升模型的性能. 说...原创 2020-04-25 17:58:30 · 640 阅读 · 0 评论 -
迁移学习综述
论文:A Survey on Deep Transfer Learning 论文地址 迁移学习 迁移学习是深度学习中解决训练数据不足问题的重要工具.它试图通过放宽训练数据和测试数据必须为独立且分布均匀( i.i.d )的假设,将知识从源域迁移到目标域. 主要解决问题:目标域的数据十分稀缺 定义 给定基于数据 Dt 的学习任务 Tt ,我们可以从数据 Ds 中获取对任务 Ts 有用的知识.迁移学习旨...原创 2020-04-25 16:31:12 · 1176 阅读 · 0 评论 -
Inception-V3论文笔记
《Rethinking the Inception Architecture for Computer Vision》的笔记,粗略的记下了比较重要的几点. 论文还有未看完的,这些之后再补充. 设计网络原则 1.避免表征瓶颈。大部分时候,特征大小应当缓慢变小,在变小的同时增加维度。(下采样是减小信息,而升维是增加信息)[以免降维时丢失信息过多] 2.高维特征更容易局部处理,收敛更快。(高维易分)[这...原创 2020-03-26 22:00:57 · 271 阅读 · 0 评论