
CV/DL
isErik
这个作者很懒,什么都没留下…
展开
-
CV/DL基础知识 之 反卷积参数推导
CV/DL基础知识 之 反卷积参数推导1,卷积参数表达式:2,反卷积的运算过程:3,反卷积参数的推导4,后记1,卷积参数表达式:输入size :in输出size :out卷积核size:k步长 :spadding :原创 2020-07-29 10:23:00 · 1167 阅读 · 0 评论 -
CV/DL基础知识 之 卷积网络感受野计算公式推导
CV/DL基础知识 之 卷积网络感受野计算公式推导首先解释一下什么是感受野:假设将原始输入(一般是图像)img输入到网络中,某卷积层layer_i输出的特征图为map_i。map_i的感受野就是map_i中的某个元素在这个计算过程中涉及到的img的元素数量。我们一步步来。符号标记:除了上面用到的符号,我们用r_i表示map_i的感受野尺寸;k_i、s_i表示layer_i的卷积核尺寸、步长;如图:图2:我们首先计算r_1:如图2,map_1的蓝色元素,map_1中的每个元素都是由原图原创 2020-07-22 23:19:46 · 1127 阅读 · 1 评论 -
论文笔记 之 FCN、Unet家族
论文笔记 之 Fully Convolutional Networks for Semantic Segmentation图像语义分割入门+FCN/U-Net网络解析FCN学习:Semantic Segmentation原创 2020-07-21 10:57:34 · 609 阅读 · 0 评论 -
论文笔记 之Clockwork Convnets for Video Semantic Segmentation
论文笔记 之 Clockwork Convnets for Video Semantic Segmentation)1,本文解决的问题2,本文的方法1,作者的两个观察1,深层特征变化比浅层特征慢2,可以将执行过程(execution)视为网络结构(architecture)的一个方面,从而可以根据目标为网络设计计算时间表2,本文的策略1,本文解决的问题应用于单帧的语义分割直接应用于视频时,计算量太大。即如何降低视频语义分割的整体计算量和延迟?2,本文的方法通过研究视频各帧在时间上的关联,减少计算量。原创 2020-07-20 18:08:02 · 800 阅读 · 0 评论 -
论文笔记 之 Every Frame Counts: Joint Learning of Video Segmentation and Optical Flow
论文笔记 之 Every Frame Counts: Joint Learning of Video Segmentation and Optical Flow)1,本文解决的问题1,本文解决的问题问题1:已有方法主要有两类: 1,重用之前帧的特征,提高速度 2,通过光流或序列模型来建模多帧,提高精度这两种方法均牺牲了速度和精度中的一者,换取另一者。通过光流研究语义特征空间的时间一致性。将语义分割与光原创 2020-07-19 15:40:57 · 1372 阅读 · 0 评论 -
论文笔记 之 Dynamic Video Segmentation Network
论文笔记 之 Dynamic Video Segmentation Network)1,本文解决的问题2,本文采用的策略2.1,策略依据2.2,自适应关键帧选取策略adaptive key frame scheduling policy:2.3,决策网络decision net-work:3,实验:3.1,整体有效性实验:3.2, 自适应关键帧选取策略有效性实验:3.3,DN的多种结构实验:3.4,不同的区域划分实验:3.4,区域边界重叠部分大小实验:4,参考文献:1,本文解决的问题本文是对DFF[30原创 2020-07-13 18:00:23 · 1413 阅读 · 4 评论 -
论文笔记 之 Low-Latency Video Semantic Segmentation
论文笔记 之 Low-Latency Video Semantic Segmentation1,要解决的问题:2,本文提出的方法:3,网络结构:3.1,自适应关键帧选取网络Devs:3.2,自适应特征传递网络spatially variant convolution3.2.1,特征传递策略3.2.1,卷积核预测kernel weight predictorFtl和Fth融合网络AdaptNet:3.2.3,自适应特征传递网络流程3.3,低延迟调度Low-Latency Scheduling4,实验:4.1,原创 2020-07-13 14:55:12 · 1451 阅读 · 4 评论 -
论文笔记 之 Deep Feature Flow for Video Recognition
论文阅读 之 Deep Feature Flow for Video Recognition1,要解决的问题:2,本文提出的方法:3,网络结构:3.1,特征计算网络Nfeat:3.2,光流计算网络F:3.3,利用光流传播高级特征:3.4, key frame的选取策略:3.5,任务网络Ntask:3.5.1, 语义分割任务:3.5.2, 目标检测任务:3.6,算法伪代码:4,训练:5,实验5.1,速度-精度-模型相关性验证5.2,Split point of Ntask参考文献:1,要解决的问题:目标检原创 2020-07-12 18:13:45 · 1191 阅读 · 3 评论 -
CV/DL基础知识 之 深入理解Batch Normalization -我觉得很多人用正态分布来解释是错误的
CV/DL基础知识 之 深入理解Batch Normalization前言关于Batch NormalizationBut, why?1,均匀分布前言关于Batch Normalization的作用和流程请参考郭耀华的博客,博主写的非常详尽了,本文主要深入探讨为什么Normalization之后,能够将神经元中激活函数的输入能够很好的集中在[-1,1]之间。一般的解释是:假设输入服从正态分布来解释,然而本人觉得这是相对片面的,本文将从多种分布来进一步研究该问题。关于Batch Normalizatio原创 2020-07-07 11:56:43 · 668 阅读 · 1 评论 -
CV/DL基本概念 之 precision/recall
CV/DL基本概念 之 precision/recallprecisionrecallprecision和recall的联系precision准确率,TP/(TP+FP),表征目标识别的准确性,即模型对捕捉某一类别与其他类别的差异的能力。一般来说,如果如果将判定阈值提高,或者模型倾向于很少将样本预测为本类别,则precision可以提高,因为FP减少,但这同时导致FN迅速提高,导致recall迅速下降。recall召回率,TP/(TP+FN),表征目标识别的覆盖性,即模型对捕捉某一类别不同个体间的共原创 2020-07-06 10:45:57 · 937 阅读 · 0 评论