特征融合的常见方法

本文探讨了深度学习中如何通过concat、addition、biLinear和sum-pooling方法融合不同维度特征x和y,形成新特征z。讲解了每种融合方式的原理和适用场景,重点介绍了sigmoid和FC在sum-pooling中的作用。

深度学习中,假设有两个层次的特征x∈Rn,x∈Rm.x \in \mathbb{R}^n, x \in \mathbb{R}^m.xRn,xRm. 如何得到融合这两者的新特征z∈Rk.z \in \mathbb{R}^k.zRk.

常见的方法如下:

  • concat : z=[x,y]∈Rm+n,k=m+n.z=[x,y] \in \mathbb{R}^{m+n}, k=m+n.z=[x,y]Rm+n,k=m+n.
  • addition: z=x+y∈Rkz=x+y \in \mathbb{R}^{k}z=x+yRk,需要把两个特征映射到同一维度k.k.k.
  • biLinear:
    z=xTWy,W∈Rk×m×n.zi=xTWiy,Wi∈Rm×n,i=1:k.z=x^TWy, \quad W \in \mathbb{R}^{k \times m \times n}. \\ z_i = x^TW_iy, \quad W_i \in \mathbb{R}^{m \times n},i=1:k.z=xTWy,WRk×m×n.zi=xTWiy,WiRm×n,i=1:k.
  • sum-pooling:
    设未池化的特征图为X∈Rn×h×w,y∈RmX \in \mathbb{R}^{n\times h \times w}, y \in \mathbb{R}^mXRn×h×w,yRm,
    z=∑i,jwij⊙Xij∈Rnz = \sum_{i,j} w_{ij} \odot X_{ij} \in \mathbb{R}^nz=i,jwijXijRn
    i,ji,ji,j表示特征的每一个位置。其中wijw_{ij}wij计算如下
    wij=σ(FC([Xij,y]))∈Rn.w_{ij}=\sigma \big(FC([X_{ij}, y])\big) \in \mathbb{R}^n.wij=σ(FC([Xij,y]))Rn.
    σ\sigmaσ表示sigmoid函数,FC的作用是维度调整。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值