用于视觉显著性计算的多任务学习排序方法
1. 计算复杂度分析
在视觉显著性计算中,涉及到一些矩阵运算的复杂度。计算 $\Delta W$ 时,$X_{m}^{kuv}$ 与另一个矩阵运算具有 $O(L)$ 的复杂度,因此使用特定公式计算 $\Delta W$ 大约具有 $O(N_aM^2L)$ 的复杂度。而计算 ${\eta_{m}^{kuv}}$ 的复杂度为 $O(N_aML)$ ,整体复杂度 $C_{i}^{\Delta}$ 可表示为:
$C_{i}^{\Delta}= O(N_aM^2L) + O(N_aML) \approx O(N_aM^2L)$
整体计算复杂度与六个参数紧密相关,包括:
- $K$:训练场景的数量
- $N_a$:训练样本的数量
- $M$:场景聚类的数量
- $L$:局部特征维度
- ${R_i}$:优化 $W$ 时的梯度步数
- EM 迭代的次数
其中,$K$ 由训练集决定,不同的梯度下降算法收敛速度不同,会导致不同的 ${R_i}$ 。实验发现,EM 优化通常在少于 $T = 10$ 次迭代时终止。为了降低计算复杂度,有三种可行的方法:
1. 移除冗余的训练样本以减少 $N_a$ 。
2. 减少聚类数量 $M$ 。
3. 降低特征维度 $L$ 。
通常,参数 $L$ 在不同应用中预先定义,$M$ 应通过交叉验证进行优化。因此,可以通过移除冗余训练样本(例如,融合每个场景中具有相似局部视觉属性和真实显著性值的子集)来降低计算复杂度。实验表明,当场景数量 $K$ 、特征维度 $L$ 和聚类数量 $M$ 被视为常数时,训练时间与训练样
超级会员免费看
订阅专栏 解锁全文
17万+

被折叠的 条评论
为什么被折叠?



