低秩与稀疏多任务学习详解
在多任务学习领域,整合低秩和稀疏表示是一种有效的方法,能够更好地捕捉任务之间的相关性。下面将详细介绍相关的理论和计算方法。
低秩与组稀疏结构的多任务学习
在多任务学习中,对于优化问题的近端算子可以表示为一般形式的优化问题:
[
\min_{L_z,S_z} |L_z - \hat{L} z|_F^2 + |S_z - \hat{S}_z|_F^2 + \hat{\alpha}|L_z| * + \hat{\beta}|S_z|_{1,2}
]
其中,(\hat{\alpha} = \frac{2\alpha}{\gamma_k}),(\hat{\beta} = \frac{2\beta}{\gamma_k})。可以很容易验证,(L_z)和(S_z)的优化是解耦的,并且该优化问题的最优解具有如下解析形式。
1. (L_z)的计算
(L_z)的最优解可以通过求解以下优化问题得到:
[
\min_{L_z} |L_z - \hat{L} z|_F^2 + \hat{\alpha}|L_z|
]
这个计算过程等同于矩阵收缩算子,本质上是对(\hat{L} z)的非零奇异值应用软阈值处理。具体来说,若给定任意的(\hat{L}_z),设(\text{rank}(\hat{L}_z) = r),其奇异值分解(SVD)的简化形式为(\hat{L}_z = \hat{U}_z\hat{\Sigma}_z\hat{V}_z^T),其中(\hat{\Sigma}_z = \text{diag}({\sigma
超级会员免费看
订阅专栏 解锁全文
65

被折叠的 条评论
为什么被折叠?



