
深度学习
文章平均质量分 88
-circle-
这个作者很懒,什么都没留下…
展开
-
PicoDet代码学习记录
paddle detection的推理代码粗略学习原创 2022-12-12 19:44:28 · 651 阅读 · 2 评论 -
【CVPR2018】Group Normalization
作者摘要BN是一个深度学习发展的里程碑,给多种网络训练赋能。但当batch变小,由于不准确的batch统计估计,BN的错误率会快速增加。这限制了BN在大模型的应用。本文提出Group Normalization(GN),作为BN的一个简单替换。GN将通道数分成多个组,在每个组计算均值和方差来归一化,计算独立于batch size,且在batchsize的大变化范围内性能稳定。在ImageNet训练的ResNet-50,batch size为2时GN的错误率比BN低10.6%;在batch size.原创 2020-08-06 15:42:17 · 525 阅读 · 0 评论 -
【CVPR2020】Rethinking Data Augmentation for Image Super-resolution: A Comprehensive Analysis and a Ne
【CVPR2020】Rethinking Data Augmentation for Image Super-resolution: A Comprehensive Analysis and a New Strategy作者摘要数据增广能有效提升深度网络性能,本文对现有的超分数据增广进行了一套综合分析。对于图像重建,像素空间关系很重要。本文提出CutBlur,即将高/低分辨率patch剪切到对应位置,使得模型学习不止学习如何重建,还学习到重建的具体位置。本方法能提升性能,而且在一些low-lev原创 2020-07-24 20:09:31 · 1430 阅读 · 1 评论 -
一文读懂深度学习中的各种卷积
写的非常通俗易懂,深入浅出,厘清了很多基本概念。转载自:https://mp.weixin.qq.com/s/C2Gp6oTrv6U72ydIxTW0Mw我们都知道卷积的重要性,但你知道深度学习领域的卷积究竟是什么,又有多少种类吗?研究学者 Kunlun Bai 发布了一篇介绍深度学习的卷积文章,用浅显易懂的方式介绍了深度学习领域的各种卷积及其优势。如果你听说过深度学习中不同种类的卷积(比如 2D / 3D / 1x1 /转置/扩张(Atrous)/空间可分/深度可分/平展/分组/混..转载 2020-06-16 17:15:47 · 362 阅读 · 0 评论 -
【CVPR2018】ERFNet: Efficient Residual Factorized ConvNet for Real-time Semantic Segmentation
作者摘要语义分割网络可以端到端训练,并准确地在像素级对多种目标分类。本文提出一个可实时运行且结果准确的语义分割架构。本架构核心是一个新层,使用residual connections和factorized convolutions,得以保证准确和高效。在单卡Titan X可达83FPS,Jetson TX1(英伟达GPU开发板)可达7FPS。在公开数据集Cityscapes上准确率类...原创 2020-04-07 23:19:35 · 2801 阅读 · 1 评论 -
【CVPR2018】MobileFaceNets Efficient CNNs for Accurate RealTime Face Verification on Mobile Devices
【CVPR2018】MobileFaceNets Efficient CNNs for Accurate RealTime Face Verification on Mobile Devices作者摘要本文提出一类高效CNN模型MobileFaceNets,参数量小于100w,识别适合手机和嵌入式设备,进行实时准确的人脸验证。首先简单分析通用mobile网络对人人脸验证的缺陷,并且Mo...原创 2019-12-20 18:17:51 · 444 阅读 · 0 评论 -
【CVPR2018】FOTS: Fast Oriented Text Spotting with a Unified Network论文阅读笔记
一、作者二、摘要提出一种端到端可训练Fast Oriented Text Spotting网络,同时检测识别。RoIRotate共享检测和识别的卷积特征。本方法没有重复计算消耗,并学习到更多通用特征,因此优于two-stage方法。在ICDAR2015、ICDAR2017MLT和ICDAR2013达到state-of-the-art。达到实时的任意方向text spotting,22....原创 2019-08-09 14:34:10 · 604 阅读 · 0 评论 -
【CVPR2017】Richer Convolutional Features for Edge Detection论文阅读笔记
一、作者二、方法概括 本文提出一种准确的边缘检测方法,使用丰富的卷积特征richer convolutional features(RCF)。使用VGG16网络,取得state-of-the-art性能,在BSDS500数据集,获得ODS 0.811,125ms每幅,超过人类性能(ODS 0.803)。此外,我们有个加速版本,33ms每幅,ODS 0.806。三、创新点和...原创 2019-08-09 14:31:55 · 1165 阅读 · 0 评论 -
【ICCV2015】Holistically-Nested Edge Detection论文阅读笔记
一、作者二、方法概括 本文提出一种新的边缘检测算法HED(holistically-nested edge detection),有两个特点:1整图进行训练和预测;2多尺度多层次特征学习。 利用全卷积网络(FCN)和deeply-supervised nets(DSN),自动学习丰富的层次化表达。在BSD500(0.782)和NYU Depth(0.746...原创 2019-08-09 14:28:40 · 1753 阅读 · 0 评论 -
caffe中的各种loss函数
转自:https://blog.youkuaiyun.com/u012177034/article/details/52144325机器学习的目的就是通过对训练样本输出与真实值不一致的进行惩罚,得到损失Loss,然后采用一定的优化算法对loss进行最小优化,进而得到合理的网络权值。本文介绍Caffe中含有的常见的LossLayer及其参数设置方法Caffe的LossLayer主要由6个:(1)Co...转载 2018-09-18 16:25:24 · 1923 阅读 · 1 评论 -
CNN中感受野的计算
感受野(receptive field)是怎样一个东西呢,从CNN可视化的角度来讲,就是输出featuremap某个节点的响应对应的输入图像的区域就是感受野。比如我们第一层是一个3*3的卷积核,那么我们经过这个卷积核得到的featuremap中的每个节点都源自这个3*3的卷积核与原图像中3*3的区域做卷积,那么我们就称这个featuremap的节点感受野大小为3*3如果再经过poo转载 2017-12-07 18:48:48 · 436 阅读 · 0 评论 -
一文读懂卷积神经网络CNN
转自:http://www.cnblogs.com/nsnow/p/4562308.html作者:张雨石自今年七月份以来,一直在实验室负责卷积神经网络(Convolutional Neural Network,CNN),期间配置和使用过theano和cuda-convnet、cuda-convnet2。为了增进CNN的理解和使用,特写此博文,以其与人交流,互有增益。正文之前转载 2017-06-16 14:23:41 · 519 阅读 · 0 评论 -
Batch Normalization 学习笔记
原文地址:http://blog.youkuaiyun.com/hjimce/article/details/50866313作者:hjimce一、背景意义本篇博文主要讲解2015年深度学习领域,非常值得学习的一篇文献:《Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate转载 2017-06-16 17:56:19 · 292 阅读 · 0 评论 -
理解dropout
转载自:http://blog.youkuaiyun.com/stdcoutzyx/article/details/49022443开篇明义,dropout是指在深度学习网络的训练过程中,对于神经网络单元,按照一定的概率将其暂时从网络中丢弃。注意是暂时,对于随机梯度下降来说,由于是随机丢弃,故而每一个mini-batch都在训练不同的网络。dropout是CNN中防止过拟合提高效果的一个大杀器,但转载 2017-06-19 17:02:08 · 537 阅读 · 0 评论 -
Caffe源码阅读笔记
具体内容可参考博客:http://blog.youkuaiyun.com/mounty_fsc/article/category/6136645以下内容以Lenet网络为例子一、train函数过程1.1 main函数,在tools\caffe.cpp解析命令,从而调用train、test、time、device_query中的一个,训练则调用train函数。1.2 tr原创 2017-07-21 17:30:30 · 751 阅读 · 0 评论 -
如何在Windows单步调试Caffe
转载自:http://blog.youkuaiyun.com/tsyccnh/article/details/51679121上一篇文章已经成功的在Windows环境下训练了mnist。这篇文章主要用来说明如何对网络进行调试。这篇文章已经默认你已经成功的在Windows下配置并编译了Caffe并跑通了mnist demo 下面就开始正式的配置调试环境: Caffe的根目转载 2017-07-18 19:24:43 · 1163 阅读 · 0 评论 -
caffe绘制训练过程的loss和accuracy曲线
在caffe的训练过程中,大家难免想图形化自己的训练数据,以便更好的展示结果。如果自己写代码记录训练过程的数据,那就太麻烦了,caffe中其实已经自带了这样的小工具 caffe-master/tools/extra/parse_log.sh caffe-master/tools/extra/extract_seconds.py和 caffe-master/tools/extra/plot_tra转载 2017-07-31 12:18:53 · 637 阅读 · 0 评论 -
Caffe中实现卷积的计算
转载自:https://buptldy.github.io/2016/10/01/2016-10-01-im2col/CNN中的卷积操作卷积层是CNNs网络中可以说是最重要的层了,卷积层的主要作用是对输入图像求卷积运算。如下图所示,输入图片的维数为[c0,h0,w0][c0,h0,w0] ;卷积核的维数为[c1,c0,hk,wk][c1,c0,hk,wk转载 2017-10-27 18:10:05 · 527 阅读 · 0 评论 -
深度学习中的卷积与反卷积
转载自:http://blog.youkuaiyun.com/panglinzhuo/article/details/75207855卷积与反卷积操作在图像分类、图像分割、图像生成、边缘检测等领域都有很重要的作用。为了讲明白这两种操作,特别是反卷积操作,本文将依照神经网络中的编码器——>解码器——>卷积——>反卷积 的思路来一步步介绍。编码器与解码器神经网络本质上就是一个线性变转载 2017-12-05 16:14:52 · 2355 阅读 · 1 评论 -
UFLDL Tutorial Exercise
UFLDL教程:http://ufldl.stanford.edu/wiki/index.php/UFLDL教程我用MATLAB完成的作业分享在github:https://github.com/SophieFeng/UFLDL-Tutorial-Exercise欢迎大家提出宝贵意见!原创 2017-05-17 15:50:21 · 562 阅读 · 0 评论