在大数据推荐算法中,经常使用大规模逻辑回归算法进行模型训练。在用owlqn方法解稀疏逻辑回归问题时,每一步迭代需要计算损失函数f(w)的“虚梯度”作为下降方向。请问下面哪一个是虚梯度的计算公式?

$$ \diamond_i f(w) = \begin{cases} \partial_i^- f(w) & \text{ if } \partial_i^- f(w) > 0 \ \partial_i^+ f(w) & \text{ if } \partial_i^+ f(w) < 0 \ 0 & \text{ otherwise } \ \end{cases} \right. $$

$$ \diamond_i f(w) = \begin{cases}
\partial_i^- f(w) & \text{ if } \partial_i^- f(w) < 0 \
\partial_i^+ f(w) & \text{ if } \partial_i^+ f(w) > 0 \
0 & \text{ otherwise } \
\end{cases} \right.$$

$$ \diamond_i f(w) = \partial_i^+ f(w) - \partial_i^- f(w) $$

$$ \diamond_i f(w) = \partial_i^ f(w) $$
本文探讨了在大数据推荐算法中使用大规模逻辑回归进行模型训练的过程,并深入讨论了利用OWL-QN方法解决稀疏逻辑回归问题的具体步骤。文章重点介绍了在每一步迭代中计算损失函数的虚梯度的方法。
5万+

被折叠的 条评论
为什么被折叠?



