Quadrature Mirror Filterbanks

本文深入探讨了两通道正交镜像滤波器组的基本原理及其实现过程。通过详细的数学公式推导,为读者提供了一个清晰的理解路径。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

这篇论文主要讲述了两通道正交镜像滤波器组的原理进行了推导。

 

对于理解正交镜像滤波器组的原理不错。

 

公式推导很详细。

 

 

### 深度学习中的Quadrature技术及其应用场景 在深度学习中,quadrature(求积)主要应用于数值积分问题。这类技术用于近似连续空间上的积分运算,在许多情况下,解析解难以获得或者不存在。对于高维分布下的期望计算等问题,采用蒙特卡洛方法或其他形式的数值积分变得至关重要。 #### 数值积分的重要性 当面对复杂的概率密度函数时,直接计算其下面积可能非常困难。此时可以借助于不同的求积策略来估计该区域大小。例如,在贝叶斯推断框架内,经常遇到需要对后验分布做积分的情况;而在生成对抗网络(GANs)训练过程中,则涉及到两个不同分布间的距离度量——Wasserstein距离就包含了这样的积分操作[^1]。 #### Gauss-Hermite Quadrature的应用场景 一种常见的求积方式是Gauss-Hermite quadrature, 它特别适用于正态分布情况下的加权平均数估算。这种方法能够有效地减少样本数量从而提高效率。具体来说,在变分自编码器(VAE)中为了优化ELBO目标函数,会利用此类技巧来进行重参数化(reparameterization trick),进而实现更稳定的梯度传播[^2]。 ```python import numpy as np from scipy.special import roots_hermitenorm def gauss_hermite_quadrature(func, mu, sigma, degree=50): x, w = roots_hermitenorm(degree) std_x = np.sqrt(2)*sigma*x + mu return sum(w * func(std_x)) ``` 此代码片段展示了如何使用SciPy库执行一维高斯-埃尔米特求积法。这里`func`代表被积函数,`mu`和`sigma`分别是均值与标准差参数。 #### 应用实例:强化学习中的Policy Gradient Estimation 另一个典型例子是在基于策略的强化学习算法里,比如Actor-Critic结构或Proximal Policy Optimization (PPO), 需要评估动作价值函数(action-value function)关于状态转移核的状态边际分布(state marginal distribution) 的期望。由于环境动态特性未知且可能是随机性的,因此往往采取采样手段配合特定类型的求积方案完成这一任务[^3]。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值