[京哥读论文]之From Hashing to CNNs: Training Binary Weight Networks via Hashing

该文提出了一种新的训练二值权重网络(BWN)的方法,将其与哈希方法关联起来,通过交替更新策略优化二值编码而非权重,改善了在Cifar10、Cifar100和ImageNet上的性能。文章揭示了保持内积的哈希方法与BWN之间的关系,并在实践中证明了所提方法的有效性和收敛性。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Abstract

本文在二值化权重(BWN)方面做出了创新,发表在AAAI2018上,作者是自动化所程建团队。本文的主要贡献是提出了一个新的训练BWN的方法,揭示了哈希与BW(Binary Weights)之间的关联,表明训练BWN的方法在本质上可以当做一个哈希问题。基于这个方法,本文还提出了一种交替更新的方法来有效的学习hash codes而不是直接学习Weights。在小数据和大数据集上表现的比之前的方法要好。

主要贡献

  • 本文揭示了保持内积哈希与BWN之间的紧密关联。
  • 为了减轻用哈希方法所带来的loss,本文将binary codes乘以了一个scaling factor并用交替优化的策略来更新binary codes以及factor。
  • 在Cifar10,Cifar100以及ImageNet上实验,本文提出的BWNH方法比之前方法要好。

Inner-product preserving hashing

保留内积哈希方法是沈老师团队在15年ICCV上提出的,方法是给定两个点集X∈RS×MX\in \mathbb R^{S\times M}XRS×MW∈RS×NW\in \mathbb R^{S\times N}WRS×NXi∈RS×1X_i\in \mathbb R^{S\times 1}XiRS×1以及Wi∈RS×1W_i\in \mathbb R^{S\times 1}WiRS×1分别代表向量XXXWWW的第iii个点,记作向量XXXWWW的内积相似性(inner-product similarity)为S∈RM×NS\in \mathbb R^{M\times N}SRM×N。则目标函数变为:
min∥S−h(X)Tg(W)∥F2(1)min\quad \Vert S-h(X)^Tg(W)\Vert^2_F \quad (1)minSh(X)Tg(W)F2(1)
h(⋅)h(\cdot)h()g(⋅)g(\cdot)g()表示的是向量XXXWWW的哈希函数。

哈希与BWN之间的关联

假设有一个L层pre-trained CNN model,X∈RS×MX\in \mathbb R^{S\times M}XRS×M是第LLL层的input feature map.记作第LLL层的权重的真实值为W∈RS×NW\in \mathbb R^{S\times N}WRS×N,目标是得到二进制的weighs B∈{ −1,+1}S×NB\in \{-1,+1\}^{S\times N}B{ 1,+1}S×N,天真的想法可能就是直接优化二者的差:
minL(B)=∥W−B∥F2s.t.  B∈{ +1,−1}S×N(2)min \quad L(B)=\Vert W-B\Vert^2_F \quad s.t.\;B\in\{+1,-1\}^{S\times N} \quad (2)minL(B)=WBF2s.t.B{ +1,1}

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值