Improving Accuracy of Binary Neural Networks using Unbalanced Activation Distribution
于 2021-12-08 17:25:11 首次发布
本文研究了在资源受限环境中,通过调整ReLU激活函数的偏移来平衡二值数据分布对神经网络模型精度的提升。实验表明,使用可训练的激活函数能帮助优化激活分布,从而可能提高模型的准确性。
本文研究了在资源受限环境中,通过调整ReLU激活函数的偏移来平衡二值数据分布对神经网络模型精度的提升。实验表明,使用可训练的激活函数能帮助优化激活分布,从而可能提高模型的准确性。
2万+
1万+
2917
6408
1878
2万+
1万+
3405
2275
2071
1414

被折叠的 条评论
为什么被折叠?