
论文记录
文章平均质量分 82
论文记录
ggyyToLearning
算法工程师
展开
-
OGA + HDBIC + Trim
算法實現 OGA+ HDIC + Trim HDIC = (HDBIC / HDHQ) 進行Kn次的OGA的迭代,其中Kn是OGA的迭代上限 獲得k個回歸因子後,計算高維信息準則HDIC; 選擇OGA迭代結束時可以最小化HDIC的k, 1 <= k <= Kn, 使用Trim獲得最小的相關數據集合 細節 1. (1) OGA算法實現 1)使用選擇器(2.1)找到當前的最優變(greedy的思想) 但是我們不使用(2.2)定義 ,在OGA中 定義如下: 對於2.2 使用了線性變換,把 目的是實原创 2023-05-11 17:25:56 · 118 阅读 · 0 评论 -
for my article
h(u)=12∥u−β∥22+λ∥u∥1h(u) = \frac{1}{2}\| u -\beta \|_2^2 + \lambda \|u \|_1h(u)=21∥u−β∥22+λ∥u∥1 is strictly convex, we need to prove Sλ(β)=proxλ∥⋅∥1S_{\lambda}(\beta) = {\rm prox}_{\lambda \| \cdot\|_{1}}Sλ(β)=proxλ∥⋅∥1 f:RN→Rf: \mathbf{R}^{N} \r.原创 2021-10-29 22:09:28 · 165 阅读 · 0 评论 -
Regression and Multiclass Classification Using Sparse Extreme Learning Machine via Smoothing Group L
11原创 2021-06-24 10:33:08 · 118 阅读 · 0 评论