基于学习的视觉显著性计算研究
1 刺激 - 显著性函数与算法迭代
在视觉显著性计算中,“刺激 - 显著性”函数的值应在 [0, 1] 范围内。例如,线性“刺激 - 显著性”函数可采用如下形式:
$\hat{f}_t (x) = \omega_t^T x$,其中 $0 \preceq \omega_t \preceq 1$ 且 $|\omega_t|_1 = 1$ 。
当使用该线性函数时,相关问题可通过二次规划高效求解。此外,还可使用径向基函数(RBF)作为非线性“刺激 - 显著性”函数:
$\hat{f}_t (x) = e^{-\gamma_t |x - \omega_t|_2^2}$,其中 $\gamma_t > 0$ 。
此时,相关优化问题可使用基于梯度下降的方法求解。这里,对应每个复杂任务的“刺激 - 显著性”函数可由 RBF 网络(即简单神经网络)近似,使任务相关模型具有生物学合理性。同样,也可采用其他非线性函数(如 Sigmoid 函数),并使用基于梯度下降的方法求解优化问题。
通过迭代更新组合权重 $W$ 和“刺激 - 显著性”函数 $F$ ,整体预测误差会逐渐减小:
$L\left{F^{(m)}, W^{(m)}\right} + \lambda \Omega\left{F^{(m)}, W^{(m)}\right} \leq L\left{F^{(m - 1)}, W^{(m - 1)}\right} + \lambda \Omega\left{F^{(m - 1)}, W^{(m - 1)}\right}$ 。
选择合适的 $\epsilon_{rov}$ 和 $\epsilon_{inter}$ ,优化目标有下
基于学习的视觉显著性模型研究
超级会员免费看
订阅专栏 解锁全文

被折叠的 条评论
为什么被折叠?



