处理概念漂移的特征选择
1. 学习准则
通过将分布密度 (2)、(15) 和 (16) 代入 (18),我们得到以下学习准则:
(( \hat{w} t, t = 1, …, T, \hat{r}|c, \mu) = \arg \min {w_t,t = 1, …, T,r} J(w_t, t = 1, …, T, r|c, \mu))
(J(w_t, t = 1, …, T, r|c, \mu) = (T - 1) \ln |D_r| + \sum_{t = 2}^{T}(w_t - qw_{t - 1})^T D_r^{-1} (w_t - qw_{t - 1}) - 2 \ln G(r|\mu) + 2c \sum_{t = 1}^{T} \sum_{j = 1}^{N_t} \max {0, 1 - y_{j,t}w_t^T x_{j,t} })
我们使用分组坐标下降法来处理两组变量,即超平面参数 ((w_t, t = 1, …, T)) 和方差 (r = (1, …, n))。当其中一组变量固定时,会形成以下两个部分优化问题的迭代过程:
(J(w_t, t = 1, …, T|r, c) = \sum_{t = 2}^{T}(w_t - qw_{t - 1})^T D_r^{-1} (w_t - qw_{t - 1}) + 2c \sum_{t = 1}^{T} \sum_{j = 1}^{N_t} \max {0, 1 - y_{j,t}w_t^T x_{j,t} } \to \min)
(J(r|w_t, t = 1, …, T, \mu) = (T - 1) \ln |D_r^{-1}| + \sum_{t = 2}^{T
超级会员免费看
订阅专栏 解锁全文
1271

被折叠的 条评论
为什么被折叠?



