
深度学习
bobobe
这个作者很懒,什么都没留下…
展开
-
卷积
文章目录卷积的定义以下回答摘自知乎回答“如何通俗易懂地理解卷积”。卷积的定义连续形式的卷积:离散形式的卷积:它们都有一个共同的特征:直观上来看,函数g(n−τ)g(n-\tau)g(n−τ)的含义是将函数g(τ)g(\tau)g(τ)首先进行沿y轴翻转得到g(−τ)g(-\tau)g(−τ),然后向左平移n个单位得到g(n−τ)g(n-\tau)g(n−τ)。即先对g函数进行翻转,相当于在数轴上把g函数从右边褶到左边去,也就是卷积的“卷”的由来。然后再把g函数平移n个单位,在这原创 2020-11-22 18:45:32 · 737 阅读 · 2 评论 -
变分自编码器(Variational Auto-Encoder,VAE)
最近看论文看到变分自编码器,发现它也可以用于数据增强,就仔细了解了一下,把比较好的讲解资料和自己的想法整理一下,以备用。经典论文Auto-Encoding Variational Bayes(还没看,据说很经典)详细介绍Tutorial - What is a variational autoencoder?(从神经网络和图模型两个方面来讲解)变分自编码器(一):原来是这么一回事(写的...原创 2019-02-17 21:02:13 · 5030 阅读 · 0 评论 -
unpooling(上池化),unsampling(上采样),Deconvolution(反卷积)
unpooling如图所示,以maxpooling为例,上池化在池化过程中会记录最大值所在下标,然后利用特征图填充最大值所在下标,其他位置填0,特征图一般为maxpooling后得到的最大值矩阵。unsampling上采样并不像上池化那样记录最大值的下标,而是把所有位置都附为特征图中的值。反卷积反卷积其实是卷积的逆过程,即通过padding再进行一次卷积,已达到和源输入一样的大小,所以...原创 2019-03-07 22:14:56 · 2159 阅读 · 0 评论 -
capsule network
一篇通俗易懂的capsule network的讲解,直接搬运过来。CapsuleNet解读后面如果用到会添加自己的理解和想法。原创 2018-11-26 21:53:57 · 518 阅读 · 0 评论