Wide activation for efficient and accurate image super-resolution
摘要:这篇论文作者证明了同样的参数和计算量,在激活函数之前有更多的特征图模型的性能就越好。最终的网络结构在每个残差模块的激活函数之前有更宽的通道。为了在没有高额计算量下更进一步加宽激活,作者引入了线性低秩卷积到网络结构中,结果得到了比较好的效率。此外,对比了BN和没有BN,作者发现权重正则化训练可以获得更好的结果。
摘要:这篇论文作者证明了同样的参数和计算量,在激活函数之前有更多的特征图模型的性能就越好。最终的网络结构在每个残差模块的激活函数之前有更宽的通道。为了在没有高额计算量下更进一步加宽激活,作者引入了线性低秩卷积到网络结构中,结果得到了比较好的效率。此外,对比了BN和没有BN,作者发现权重正则化训练可以获得更好的结果。