用于视觉显著性计算的多任务学习排序方法解析
1. 计算复杂度分析
在视觉显著性计算中,涉及到一些矩阵运算的复杂度。计算 $\Delta W$ 时,使用特定公式的复杂度约为 $O(N_aM^2L)$ ,而计算 ${\eta_{kuv}^m}$ 的复杂度为 $O(N_aML)$ 。因此,总的复杂度 $C_i^{\Delta}$ 可表示为:
$C_i^{\Delta}= O(N_aM^2L) + O(N_aML) \approx O(N_aM^2L)$
整体计算复杂度与六个参数紧密相关:
- $K$ :训练场景的数量。
- $N_a$ :训练样本的数量。
- $M$ :场景聚类的数量。
- $L$ :局部特征的维度。
- ${R_i}$ :优化 $W$ 时的梯度步数。
- EM 迭代的次数。
其中,$K$ 由训练集决定,不同的梯度下降算法收敛速度不同,会导致不同的 ${R_i}$ 。实验发现,EM 优化通常在少于 $T = 10$ 次迭代时终止。为降低计算复杂度,有三种可行方法:
1. 去除冗余的训练样本以减少 $N_a$ 。
2. 减少聚类数量 $M$ 。
3. 降低特征维度 $L$ 。
通常,参数 $L$ 在不同应用中预先定义,$M$ 需要通过交叉验证进行优化。因此,可以通过去除冗余训练样本(例如,融合每个场景中具有相似局部视觉属性和真实显著性值的子集)来降低计算复杂度。实验表明,当场景数量 $K$ 、特征维度 $L$ 和聚类数量 $M$ 被视为常数时,训练时间与训练样本数量呈线性关系。与典型的多任务学习方法相比,该方法的计算复杂度要低得多,是可以接受的。
超级会员免费看
订阅专栏 解锁全文
5万+

被折叠的 条评论
为什么被折叠?



