深度学习中的张量方法:从卷积到生成对抗网络
1. 卷积操作中的张量方法
1.1 通用N维可分离卷积与转导
在深度学习里,通用(N维)完全可分离卷积的设计是一个重要的研究方向。假设存在一个(N + 1)阶输入激活张量$X \in R^{C \times D_1 \times \cdots \times D_N}$,它对应着N个维度和C个通道。高阶可分离卷积,用符号$⊗$表示,是由一个核$W \in R^{T \times C \times K_1 \times \cdots \times K_N}$来定义的。当把这个核以因式分解的Kruskal形式表示为$W = [\lambda; U(T), U(C), U(K_1), \cdots, U(K_N)]$时,可得到高阶可分离卷积的表达式:
$⊗(X) {t, i_1, \cdots, i_N} = \sum {r = 1}^{R} \sum_{s = 1}^{C} \sum_{i_1 = 1}^{K_1} \cdots \sum_{i_N = 1}^{K_N} \lambda_r [U(T) {t, r} U(C) {s, r} U(K_1) {i_1, r} \cdots U(K_N) {i_N, r} X_{s, i_1, \cdots, i_N}]$
通过对各项重新排序,可分离高阶卷积可以表示为:
$F = [\rho [X \times_1 U(T)]] \times_1 [diag(\lambda)U(C)]$
其中$\rho$应用一维空间卷积:
$\rho(X) = [X \star_1 U(K_1) \star_2 U(
超级会员免费看
订阅专栏 解锁全文
8898

被折叠的 条评论
为什么被折叠?



