12.3 组会(基础知识,稀疏表达+采样)

本文介绍了稀疏表达的概念,特别是在矩阵运算中从稠密到稀疏的转换。重点讨论了L1正则化的稀疏性优势,通过Lasso回归的优化问题阐述其原理。优化过程中,分别针对固定的字典B优化系数α和固定的α优化字典B。采样方法包括直接采样、覆盖采样和重要采样,特别是MCMC方法中的Metropolis-Hastings算法和Gibbs采样在高维问题中的应用。这些技术在信号处理、机器学习等领域有广泛应用。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

12.3

稀疏表达

稀疏矩阵,(稠密$\rightarrow $稀疏)

L1L_1L1稀疏性,L2L_2L2没有稀疏性

证明详见Lasso论文(实际上产生原因来自于James-Stein统计量,意图降低参数的MSE)

α\alphaα表达xix_ixi, 字典:B(解混中的光谱库)

min∣∣xi−Bαi∣∣22+λ∣∣αi∣∣1min||x_i-B\alpha_i||_2^2+\lambda||\alpha_i||_1minxiBαi22+λαi1

优化过程:

  • 固定B,优化$ \alpha$ (求导,前面一项不是二范数时用Lip条件)
  • 固定α\alphaα,优化B(OLS或者SVD)

采样

逆函数直接采样

f(ϵ)=cdfP−1(u),u∼[0,1]f(\epsilon)=cdf_P^{-1}(u),u\sim[0,1]f(ϵ)=cdfP1(u),u[0,1]

覆盖采样
  • 后面的间接采样相当于先采个别的,再二项分布决定取舍
  • 适用于知道p(x)p(x)p(x)但是形式比较复杂的情况

要得到p(x)的样本,取kq(x)≥p(x)kq(x)\geq p(x)kq(x)p(x)的q(x)采样

采纳概率α(x^)=p(x^)kq(x^)\alpha(\hat x)=\frac{p(\hat x)}{kq(\hat x)}α(x^)=kq(x^)p(x^)

重要采样

Ep[f(x)]=∫f(x)p(x)=Eq[f(x)p(x)q(x)]E_p[f(x)]=\int f(x)p(x)=E_q[f(x)\frac{p(x)}{q(x)}]Ep[f(x)]=f(x)p(x)=Eq[f(x)q(x)p(x)]

MCMC
  • Process: ergodic stationary
  • Method: 经历预烧期
Metroplis-Hasting Sample

Q(i,j):Q(i,j):Q(i,j):转移概率,一般初始假设∼N(i,σ2)\sim N(i,\sigma^2)N(i,σ2),用α\alphaα作为乘数逼近真实转移概率(操作上复合一个Bernoulli分布进行取舍)

细致平稳过程π(i)Q(i,j)α(i,j)=π(j)Q(j,i)α(j,i)\pi(i)Q(i,j)\alpha(i,j)=\pi(j)Q(j,i)\alpha(j,i)π(i)Q(i,j)α(i,j)=π(j)Q(j,i)α(j,i)

平稳后α(i,j):=π(j)α(j,i)\alpha(i,j):= \pi(j)\alpha(j,i)α(i,j):=π(j)α(j,i)

实际操作上除过去,取舍概率α(i,j)=min{π(j)Q(j,i)π(i)Q(i,j),1}\alpha(i,j)=min\lbrace \frac{\pi(j)Q(j,i)}{\pi(i)Q(i,j)},1\rbraceα(i,j)=min{π(i)Q(i,j)π(j)Q(j,i),1}

Gibbs Sampling

更适用于高维情况

在MH取样的基础上,对高维向量,逐维更新

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值