多视图迁移学习与多任务学习详解
在机器学习领域,多视图迁移学习和多任务学习是重要的研究方向,它们能够有效利用不同视图和任务之间的信息,提升模型的性能。下面将详细介绍几种相关的算法。
1. 多视图大间隔迁移学习(MvTL - LM)
MvTL - LM 旨在为目标域构建大间隔分类器,同时利用源域的加权标记数据。该方法的一致性项是一致性损失函数的期望函数,用于惩罚不同视图下分类器输出的偏差,其表达式如下:
[
R_c(P^{p,q} T, l_c(x_p, x_q, w_p, w_q)) = E {P^{p,q} T}[l_c(x_p, x_q, w_p, w_q)] \approx \frac{1}{D_S + D_T} \left( \sum {i = 1}^{D_S} \beta(x_i) l_c(x_p, x_q, w_p, w_q) + \sum_{i = 1}^{D_T} l_c(x_p, x_q, w_p, w_q) \right)
]
一致性项调节源域和目标域示例之间的一致性。在两个视图((V = 2))的情况下,使用铰链损失和平方损失分别定义损失项和一致性项,优化问题如下:
[
\begin{align }
\min_{w_1, w_2} &\sum_{p = 1}^{2} \frac{\gamma_p}{2} |w_p|^2 + \sum_{p = 1}^{2} C_p \sum_{i = 1}^{D_S} \beta(x_i) \xi_p^i + C_{1,2} \left( \sum_{i = 1}^{D_S} \beta(x_i) |(w_1)^\
超级会员免费看
订阅专栏 解锁全文
3670

被折叠的 条评论
为什么被折叠?



