TCL: an ANN-to-SNN Conversion with Trainable Clipping Layers 阅读总结

文章提出了TCL(TrainableClippingLayer)技术,用于解决在ANN(人工神经网络)到SNN(脉冲神经网络)转换过程中精度和延迟之间的权衡问题。TCL通过在ReLU层后添加可训练的裁剪层,调整数据归一化因子,优化SNN的性能。实验表明,即使在250个时钟周期的低延迟下,使用TCL的SNN也能达到与ANN相当的精度,如VGG-16的73.87%和ResNet-34的70.37%。此外,L2正则化系数的适当控制进一步提升了SNN在极低延迟条件下的精度。

ABSTRACT

转换后的SNN存在准确性和延迟之间的权衡关系,在大型数据集中会造成相当大的延迟。本文提出了一种名为TCL的技术来缓解这种权衡关系的问题,使得ImageNet 在250个的步长延迟下具有73.87%(VGG-16)和70.37%(ResNet-34)的准确率。

1.INTRODUCTION

感觉几乎每篇论文的introduction介绍背景都十分相似,这里就不再赘述
本文的主要工作:
1.阐述了为什么转换snn的精度和延迟之间存在权衡关系,表明如何缓和这种权衡关系(3.1节)
2.提出了一种基本技术来改善SNN的准确性和延迟之间的权衡关系,即采用可训练裁剪层(TCL)。我们确保在一个ReLU层后都有一个裁剪区域经过训练裁剪层,找到最优的数据归一化因子,以考虑snn中的准确性和延迟。(3.2节)
3.通过适当控制了L2正则化系数,我们进一步提高了极低延迟约束下的SNN精度。(4.1节)

2.PRELIMINARY BACKROUNDS

2.1 Spiking Neural Networks theory

采用经典的IF模型, z i l ( t ) z^l_i(t) zil(t)为l层第i个神经元t时刻的总输入, θ j l − 1 ( t ) \theta^{l-1}_j(t) θjl1(t)为l-1层第j个神经元t时刻是否产生脉冲, W i j l W^l_{ij} Wijl为l-1的i神经元与l层的j神经元间的权重, V i l ( t ) V^l_i(t) Vil(t)为l层i神经元t时刻的电压, V t h r l V^l_{thr} Vthrl为l层的电压阈值
有公式如下,相信大家都已经比较熟悉:
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

2.2 ANN to SNN conversion

ANN中的RELU激活函数作用如下,使得l层i神经元的总输入 a i l a^l_i a

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

for-nothing

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值