参考:
1. 论文:winner-take-all-autoencoders.pdf
2. 代码:
a. full connect WTA-AE
b. Conv-WTA-AE
简单理解:
spatial sparsity: 对卷积得到的feature-map-tensor(shape=[N,H,W,C]), 沿每个channel, 是一个H*W的张量,仅仅保留这个H*W的张量上的最大值,其余数值元素置零。
lifetime sparsity:是在同一个批次的多个样本中,跨样本的赢者通吃。在tensorflow中,每个样本对应一个[H,W,C]的张量,lifetime sparsity是指不同样本的特征tensor的同一个channel进行比较,保留最大的K个数值。
比如:feature_map_tensor.shape=[N,H,W,C],即,batch_size=N, 每次训练输入N个样本,每个样本都有一个[H,W,C]的张量特征,lifetime sparsity 是比较这N个样本的张量特征的同一个channel的数值,并筛选最大的K个保留数值,其余的置为0。
经过spatial sparsity之后,每个样本特征的每个channel仅保留了一个数值(最大值)。

本文深入解析Winner-Take-All自编码器的工作原理,包括空间稀疏性和生命周期稀疏性的实现细节,通过tensorflow代码示例展示了如何在卷积特征图上应用这两种稀疏性策略。
最低0.47元/天 解锁文章
3279

被折叠的 条评论
为什么被折叠?



