什么是艺术--草论

古人对于艺术作品的评论(严格说应该叫评点),贵在只字片语,而不做长篇大论。究其原因,除了与本民族的文字的表达方式有关外,更重要的是中国的理论家们(不仅仅是理论家,应该说是传统的所有文人都如此)不重视“立言”的作用。对中国文人来说,“立言”并非携泰山而填北海之壮举,乃折枝之小类。古人云:“太上有德,其次立功,其次立言。”可见,“立言”历来是不怎么被人重视的。由此,文人便热衷于用简练的文字来表达思想了——即便是复杂的思想。

白话文的兴起和西方艺术批评形式与方法的“引进”,致使中国的艺术评论在中西之间徘徊了许久,事实上,到目前为止,我们的艺术评论(在其他文化领域亦如此)的方式方法更多是走“拿来”的路子。西方批评方法的引入让国中理论者顿然迷失了自我,俨然一个语无伦次的孩子。毫无夸张的说,20世纪的中国艺术批评家们已经基本上成为西方宏大理论的俘虏。现在该是让他们从这一世纪的俘虏中解放出来的时候了,尽管我们还不敢说时机完全成熟(事实上,所谓的成熟与否都是自找的)。

最近,有人提出,中国的艺术评论应该回到古人曾经走过的路子上来。一者可构建纯粹的中国式评论模式;二者可以把复杂的几千甚至上万字才能说明白的内容简单(简练)化,以便于快餐文化时代的阅读。对于这样的问题,我也不敢妄下结论。毕竟,中式批评原本针对的就是传统艺术;而对于从西方“引进”的油画或其他艺术样式是否亦然,有诸多值得商榷的地方。再者,对艺术的传统的评点方式亦要求评点者具有相当高的驾驭文字的能力;同时对文字欣赏者的要求自然也大大提高了,而这二点或许是我们当下艺术界需要补课的内容。

此外,学院式的要求无疑也极大限度地抑制了艺术评论的自由发展。一件或几件作品乃至对艺术家的看法有时是无须长篇大论来“赞美”的,但作者往往为了合乎论文的所谓标准或规范而不得不绞尽脑汁,杜撰或美化出一些莫须有的文字来。中国人历来就善于学会谦虚做人(实质上是伪装)和赞美别人的——不怎么喜欢揭别人的短。因此,在说到他人时多是捡好听的话儿说。这好似把“拿来”的东西大大地进步了一番,变成中国评论界自己的发明了。古人评点作品只关乎作品本身,略带一些艺术家之秉性。今天我们写评论有时候连人家的祖宗十八代都翻出来了。这难道不是莫须有的东西吗?

更有甚者,艺术家为了自身的提升,总是喜欢付出点代价请人来御用的。俗话说:拿人的手软,吃人的嘴短。得了人家的好处,总不能不替人家说好话的。笔者就收到诸多帮忙打广告的个人或公司,专做个人形象或艺术品推销之工作。我本只是一个自学绘画一年多的爱好者,却被大大的赞美了一番(着实大大地满足了一下虚荣心),说有专业团队可以帮忙提升知名度,只需支付多少银子就可以了。甚至还有出售所谓顶贴机的,能成千上万倍地提高博客、论坛、帖子的点击率和点击量,乃不失为一种实用的推介方式。

今天,我们盘点艺术作品,在极大程度上(甚至全部意义上)是盘点艺术家的名气。作品论平尺卖的事实证明了不管作品是新鲜的蛋糕还是发霉的馒头,艺术家的通行证便是可口的饭菜。这时候,我们的艺术评论家们便患了严重失语症似的,即便说话也不清楚了。而另一头,一旦艺术评论者被冠于著名学者、教授等头衔时,他(她)俨然便掌握了艺术作品的生杀大权——一种权力话语永久性诞生了。

长期以来,艺术家就生活在这样“扬威”的艺术界而心安理得。

更多精彩内容敬请关注“天工艺品”全球手工艺品交易平台,PC端、移动端将于7月15日震撼上市!

扫一扫关注天工艺品的微信公众平台


<think>我们正在讨论EPLL(Expected PatchLog Likelihood)图像去噪算法。EPLL是一种基于图像块先验的经典去噪方法,由DanielZoran和Yair Weiss在2011年提出。其核心思想是利用图像块的高斯混合模型(GaussianMixtureModel,GMM)作为先验知识,通过最大化期望块对数似然来恢复图像。 ###一、EPLL算法原理####1.基本数学模型EPLL的目标函数定义为: $$\hat{x}= \arg\min_{x} \frac{\lambda}{2}\|y -x \|^2 -\sum_i\logp(P_i x) $$其中:- $y$:观察到的噪声图像- $x$:待估计的干净图像- $P_i$:从图像中提取第$i$个块的操作符-$p(\cdot)$:图像块的先验概率分布-$\lambda$:正则化参数(与噪声水平相关) ####2.关键步骤解析**步骤1:图像块先验建模** -使用高斯混合模型(GMM)学习干净图像块的统计分布:$$ p(z)= \sum_{k=1}^K \pi_k\mathcal{N}(z |\mu_k,\Sigma_k)$$其中$K$是混合成分数量(通常$K=200$),$\pi_k$是混合权重。**步骤2:半二次分裂优化**通过引入辅助变量$\{z_i\}$将问题分解为两个交替优化的子问题: 1. **图像块更新**(固定$x$,优化$z_i$):$$z_i^{(t+1)} =\arg\max_{z_i}\log p(z_i) -\frac{\beta}{2} \| z_i -P_ix^{(t)}\|^2$$该问题可解析求解:对GMM中每个高斯成分,计算后验概率并加权平均[^1]。 2. **全局图像更新**(固定$z_i$,优化$x$):$$x^{(t+1)}= \arg\min_{x}\frac{\lambda}{2} \| y- x\|^2+ \frac{\beta}{2}\sum_i \| z_i^{(t+1)} -P_ix \|^2 $$这是二次优化问题,其闭式解为:$$x =\left( \lambda I+ \beta \sum_iP_i^TP_i\right)^{-1} \left(\lambday +\beta\sum_i P_i^T z_i \right)$$可通过FFT加速计算[^2]。####3.算法流程```mermaidgraph TBA[输入噪声图像y]--> B[初始化x=y] B--> C[提取重叠块P_i x] C--> D[对每个块求解GMM后验] D--> E[聚合块更新全局图像x] E--> F{达到收敛?} F---->CF ---->G[输出去噪图像x]``` ###二、与传统方法对比优势|特性| BM3D| EPLL| |---------------|------------------------|--------------------------| |先验模型|非局部相似性|高斯混合模型(GMM)||优化方式|块匹配+协同滤波|最大后验估计(MAP)||计算复杂度|中等|较高(需迭代优化)| |纹理保持能力|较好|优秀(尤其对自然图像)| ###三、实验性能####BSD68数据集结果(σ=25) |方法|PSNR(dB)| SSIM|运行时间| |------------|----------|---------|------------|| BM3D|28.57|0.886|3.2s| |**EPLL**|**28.69**|**0.890**|48.7s| |DnCNN|29.23|0.907|0.1s|> EPLL在PSNR上比BM3D高0.12dB,但计算耗时增加15倍[^3]###四、应用场景1. **自然图像去噪**:尤其适合具有重复结构的纹理图像2. **医学影像增强**:在低剂量CT图像去噪中应用广泛3. **艺术画作修复**:保持笔触细节的同时去除老化噪声4. **与其他模型结合**:作为先验项嵌入深度网络(如DPDNN[^4])###五、改进方向1. **加速策略**:-减少GMM成分数量-使用图像金字塔进行多尺度优化2.**混合先验**:-结合非局部相似性与GMM(如PGPD模型) 3. **深度化**:-用深度生成网络替代GMM(如VAE-GMM) ###代码实现关键步骤```python#伪代码:EPLL核心迭代过程defepll_denoise(noisy_img,lambda_val, beta, max_iter):clean_img =noisy_img.copy()gmm =load_pretrained_gmm()#预训练GMM模型foriterin range(max_iter):patches= extract_overlapping_patches(clean_img)updated_patches= []for patchin patches:#计算每个patch在GMM下的后验posterior= gmm.predict_proba(patch.ravel())#加权更新patchnew_patch =np.zeros_like(patch)for kin range(gmm.n_components):mean =gmm.means_[k].reshape(patch.shape)cov_inv =np.linalg.inv(gmm.covariances_[k])weight= posterior[k]new_patch+= weight* (np.linalg.solve(cov_inv +beta*np.eye(patch.size),cov_inv.dot(mean.ravel())+ beta*patch.ravel())).reshape(patch.shape)updated_patches.append(new_patch)#重建全局图像clean_img =reconstruct_image(updated_patches, noisy_img,lambda_val, beta)returnclean_img```###相关问题1.EPLL与BM3D在保持图像纹理细节方面有何本质区别?2.为什么EPLL优化过程中使用半二次分裂法(Half-QuadraticSplitting)?3.如何理解GMM先验在图像去噪中的物理意义?4.EPLL方法的主要计算瓶颈是什么?有哪些加速方案?5.现代深度学习方法(如DnCNN)相比EPLL有哪些优势与不足?---[^1]: Zoran,D.,& Weiss, Y. (2011). Fromlearning modelsof naturalimage patchesto wholeimage restoration. ICCV.[^2]:快速傅里叶变换求解全局更新步骤可显著减少计算复杂度[^3]:实验数据基于BSD68数据集,σ=25高斯噪声[^4]:【图像去噪】论文精读:Denoising PriorDriven DeepNeural Networkfor ImageRestoration(DPDNN)</think>### EPLL图像去噪算法深度解析 #### 一、核心原理:期望块对数似然(Expected Patch Log Likelihood) EPLL的核心思想是通过**最大化图像块的期望对数似然**实现去噪。其数学模型为: $$ \hat{x} = \arg\min_{x} \frac{\lambda}{2} \| y - x \|^2 - \sum_i \log p(P_i x) $$ 其中: - $y$:观测的噪声图像 - $x$:待估计的干净图像 - $P_i$:提取第$i$个图像块的操作符 - $p(\cdot)$:图像块的先验分布 - $\lambda$:正则化参数(与噪声水平相关) **关键创新点**: 1. **高斯混合模型先验**: - 使用GMM建模干净图像块的分布: $$ p(z) = \sum_{k=1}^K \pi_k \mathcal{N}(z | \mu_k, \Sigma_k) $$ 其中$K$为混合成分数(典型值$K=200$),$\pi_k$为混合权重 2. **半二次分裂优化**: - 通过引入辅助变量$z_i$将问题分解为交替优化的子问题: ```mermaid graph LR A[初始化x=y] --> B[固定x优化z_i] B --> C[固定z_i优化x] C --> D{收敛?} D ----> B D ----> E[输出x] ``` #### 二、算法实现步骤 1. **图像块提取**: - 从噪声图像$y$中提取重叠块$P_i y$ - 典型块大小:$8\times8$或$6\times6$ 2. **块优化(E-step)**: $$ z_i^{(t+1)} = \arg\max_{z_i} \log p(z_i) - \frac{\beta}{2} \| z_i - P_i x^{(t)} \|^2 $$ - 对每个块计算GMM后验概率 - 解析解:$ z_i = \sum_{k=1}^K \gamma_k (\Sigma_k^{-1} + \beta I)^{-1} (\Sigma_k^{-1}\mu_k + \beta P_i x) $ 3. **全局优化(M-step)**: $$ x^{(t+1)} = \arg\min_{x} \frac{\lambda}{2} \| y - x \|^2 + \frac{\beta}{2} \sum_i \| z_i^{(t+1)} - P_i x \|^2 $$ - 闭式解:$ x = (\lambda I + \beta \sum_i P_i^T P_i)^{-1} (\lambda y + \beta \sum_i P_i^T z_i) $ - 通过FFT加速计算[^1] 4. **迭代收敛**: - 通常5-10次迭代即可收敛 - $\beta$随迭代指数增长:$\beta_{t+1} = \rho \beta_t \ (\rho>1)$ #### 三、与传统方法对比 | 特性 | BM3D | EPLL | DnCNN | |---------------|------------------------|--------------------------|---------------------| | 先验模型 | 非局部相似性 | GMM块统计先验 | CNN残差学习 | | 优化方式 | 块匹配+协同滤波 | MAP估计+交替优化 | 端到端训练 | | 计算复杂度 | 中等 | 高(需迭代) | 低(前向传播) | | 纹理保持能力 | ★★★★ | ★★★★★ | ★★★★☆ | #### 四、实验性能(BSD68数据集,σ=25) | 方法 | PSNR(dB) | SSIM | 运行时间 | |------------|----------|---------|------------| | BM3D | 28.57 | 0.886 | 3.2s | | **EPLL** | **28.69**| **0.890**| 48.7s | | DnCNN | 29.23 | 0.907 | 0.1s | > EPLL在PSNR上比BM3D高0.12dB,但计算耗时增加15倍[^1] #### 五、应用场景 1. **自然图像去噪**: - 尤其适合具有重复结构的纹理(如地、砖墙) 2. **医学影像处理**: - 低剂量CT图像去噪(保留微小病灶特征) 3. **艺术画作修复**: - 在去除噪声的同时保持笔触细节 4. **先验模型嵌入**: - 作为深度网络的正则项(如DPDNN框架[^1]) #### 六、局限性与改进 1. **主要局限**: - 计算效率低(每张图需数十秒) - 对非高斯噪声敏感 - 需预训练GMM参数 2. **改进方向**: - **加速方案**:随机块采样/图像金字塔 - **混合先验**:结合非局部相似性(如PGPD模型) - **深度化**:用VAE替代GMM(如Deep EPLL) ```python # EPLL核心优化伪代码 def epll_denoise(y, lambda, beta0, max_iter=10): x = y.copy() # 初始化 beta = beta0 for t in range(max_iter): # E-step: 块优化 z_list = [] for patch in extract_patches(x): posterior = gmm.compute_posterior(patch) z = np.zeros_like(patch) for k in range(K): mu_k, Sigma_k = gmm.components[k] weight = posterior[k] z += weight * np.linalg.solve(Sigma_k + beta*np.eye(N), Sigma_k @ mu_k + beta * patch) z_list.append(z) # M-step: 全局优化 x = solve_global(y, z_list, lambda, beta) # 增大beta beta *= 1.5 return x ``` ### 相关问题 1. EPLL与BM3D在保持图像纹理细节方面有何本质区别? 2. 为什么EPLL优化过程中使用半二次分裂法(Half-Quadratic Splitting)? 3. 如何理解GMM先验在图像去噪中的物理意义? 4. EPLL方法的主要计算瓶颈是什么?有哪些加速方案? 5. 现代深度学习方法(如DnCNN)相比EPLL有哪些优势与不足? --- [^1]: Zoran D, Weiss Y. From learning models of natural image patches to whole image restoration[C]//ICCV 2011. 基于自然图像块学习的整体图像恢复方法
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值