
论文
文章平均质量分 92
拒绝省略号
不知道写什么,但是写了可以证明自己不懒。
展开
-
Few-Shot 学习
目录综述K-way&n-shot:网络训练:测试:综述人类非常擅长通过极少量的样本识别一个新物体,比如小孩子只需要书中的一些图片就可以认识什么是“斑马”,什么是“犀牛”。在人类的快速学习能力的启发下,研究人员希望机器学习模型在学习了一定类别的大量数据后,对于新的类别,只需要少量的样本就能快速学习,这就是 Few-shot Learning 要解决的问题。Few-shot Learning 是 Meta Learning 在监督学习领域的应用。Meta Learning,又称为 learning原创 2021-09-09 12:57:28 · 2829 阅读 · 0 评论 -
BSUV-Net: A Fully-Convolutional Neural Network for Background Subtraction of Unseen Videos
Background subtraction背景分割 (BGS) 是计算机视觉和视频处理中的一项基础性低级任务。 BGS 的目标是将输入视频帧分割成与前景或背景相对应的区域。 它经常被用作对象跟踪、人和机动车识别、人类活动识别等更高级别任务的预处理步骤。 由于 BGS 通常是第一个预处理步骤,因此其输出的准确性有 对后续步骤的整体性能产生压倒性的影响。 因此,BGS 产生尽可能准确的前景/背景分割至关重要。在本文中,我们介绍了未见过视频的背景分割算法(BSUV-Net),这是一种用于预测未知视频前景的全卷原创 2021-09-21 16:24:58 · 1419 阅读 · 0 评论 -
MACs和FLOPs
目录FLOPsMACs关系使用全连接层卷积层深度分离卷积ReLU层全局池化(常用):一般池化(不常用):激活层ReLU/PReLU/ELUSigmoidFLOPsFloating Point Operations:浮点运算次数,每一个加、减、乘、除操作都算1FLOPs操作,常用来衡量模型计算复杂度。注意下FLOPS:注意全大写,是floating point operations per second的缩写,意指每秒浮点运算次数,理解为计算速度。是一个衡量硬件性能的指标,两者别弄混。。。MACs原创 2021-09-13 19:37:31 · 13307 阅读 · 12 评论 -
详细介绍Stand-Alone Self-Attention in CV中的公式
论文:Stand-Alone Self-Attention in Vision Models因为我看这个文章的时候跳过了很多之前self-attention的知识,对公式的理解花了一段时间,所以这里主要写公式的理解,权当笔记。前言:卷积神经网络(CNN)通常学习小范围(kernel sizes)的局部特征,对于输入x∈Rh×w×dinx∈\mathbb{R}^{h×w×d_{in}}x∈Rh×w×din,定义局部像素集 Nk\mathcal{N}_kNk ,为像素xi,jx_{i,j}xi,j原创 2021-09-13 00:46:21 · 1506 阅读 · 7 评论 -
DEEP FEW-SHOT LEARNING FOR BI-TEMPORAL BUILDING CHANGE DETECTION
FEW-SHOT CNNUNCERTAINTY ESTIMATION三级目录原创 2021-09-11 17:19:19 · 618 阅读 · 0 评论 -
Monte-Carlo Dropout(蒙特卡罗 dropout),Aleatoric Uncertainty,Epistemic Uncertainty
【实验笔记】深度学习中的两种不确定性(上)原创 2021-09-11 01:05:20 · 24315 阅读 · 20 评论 -
一种新的Dropout方法 : Depth Dropout
学习笔记背景对于现在的深度神经网络,训练起来既昂贵又耗时。论文中提出了一种方法,可以减少训练时间,同时保持与传统训练方法几乎相同的精度。这允许更快的实验和更好地使用计算资源。方法通过在训练期间随机移除整个网络层而不是单个神经元来扩展众所周知的dropout技术,从而减少每次训练迭代所需的昂贵卷积运算的数量。介绍本文的贡献是通过沿 ResNet 模型的深度方向执行 dropout 来加速训练。 具体来说,在训练期间,我们逐个图像地随机绕过层,从而减少每个训练示例所需的计算量。相关工作width原创 2021-09-09 20:02:06 · 1073 阅读 · 0 评论