Variational Inference入门:Mean field for the Ising model

本文介绍了一个简单的变分推断应用案例——Ising模型的均场近似方法。通过Matlab代码实现去除图像噪声的过程,展示了原始图像、加噪图像及不同迭代次数下的恢复效果。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

Variational Inference是个比较难的方法,需要一步步认真学习并练习。


先从最简单的开始,Mean field for the Ising model是MLaPP中21.3.2节中的一个范例。回头来看,完成这个范例非常简单,就是一个公式(21.52)。但是,更重要的是理解这个公式的推导过程原理,并不容易。


还是老规矩,本文直接给代码和结果,原理请看MLaPP第21章。代码参考了MLaPP一书给出的范例程序,但做了大大的简化。


处理结果:



这个B是我装的在windows图画里画的,确实丑了点。运行此处的程序,需要先生成一个名为"LetterB.bmp"、分辨率为128*128的图片文件,和程序放在同一个目录下。


还是Matlab代码,有问题随时联系。


close all; clear all; rng(0);

%% Mean field method for Ising model
% chapter 21.3.2 in MLaPP
% by forseerwang, http://blog.youkuaiyun.com/foreseerwang
% QQ: 50834
%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%%

% Image generation
a=double(imread('LetterB.bmp'))*2-1;
figure(1); subplot(2,2,1);
imagesc(a);
colorbar;
title('original image', 'fontsize', 20);
axis('square');
colormap gray;
axis off;

% add noise
sigma  = 2; % noise level
y = a + sigma*randn(size(a)); %y = noisy signal
figure(1); subplot(2,2,2);
imagesc(y);
colorbar;
title('noisy image', 'fontsize', 20);
axis('square');
colormap gray;
axis off;

%%
% 迭代参数
lambda = 0.8;
maxIter = 10;

% 函数初始化
% log(normpdf())与MLaPP示例程序中的gaussLogprob()函数等价
Lp = log(normpdf(y(:), 1, sigma)); 
Lm = log(normpdf(y(:), -1, sigma));
logodds = Lp - Lm;
mu = tanh(logodds); 

[M,N] = size(y);
for iter = 1:maxIter
    for ii = 1:N,
        for jj = 1:M,
            pos = jj + M*(ii-1);
            nbr = pos + [-1,1,-M,M];
            nbr(([jj==1,jj==M,ii==1,ii==N])) = [];
            Sbar = sum(mu(nbr));    
            % MLaPP中的公式(21.52)
            mu(pos) = (1-lambda)*mu(pos) + lambda*tanh(Sbar + 0.5*logodds(pos));
        end;
    end;
    
    if iter == round(maxIter/2),
        mu_tmp=reshape(mu,M,N);
        figure(1); subplot(2,2,3);
        imagesc(mu_tmp);
        colorbar;
        title(sprintf('image after %d iter', iter), 'fontsize', 20);
        axis('square');
        colormap gray;
        axis off;
    end;

end;

mu=reshape(mu,M,N);

figure(1); subplot(2,2,4);
imagesc(mu);
colorbar;
title(sprintf('image after %d iter', maxIter), 'fontsize', 20);
axis('square');
colormap gray;
axis off;



变分推断是一种用于近似求解复杂概率模型后验概率分布的技术。在贝叶斯统计中,我们希望从观测数据推断出最有可能的模型参数。然而,在大多数情况下,由于模型复杂性和计算复杂度的限制,我们很难直接计算后验分布。这时候,变分推断能够通过引入一个简化的概率分布来近似后验分布。 变分推断的基本思想是为原始贝叶斯问题构造一个等价的变分问题,并通过最小化两者之间的差异来求解。具体而言,它假设一个简单的参数化概率分布(即变分分布),并试图通过调整分布参数来使其尽可能接近真实后验。 为了找到最优的变分分布,变分推断利用变分推理和优化方法进行迭代求解。在每次迭代中,它通过最大化变分推理下界来逼近后验分布。这个下界称为证据下界或ELBO(证据下界)。 变分推断的优点在于它可以同时处理大规模和高复杂度的模型,而且能够处理连续和离散变量的混合问题。它还可以灵活地处理缺失数据并处理不同类型数据之间的关联。 然而,变分推断也有其局限性。首先,变分分布选择是一个挑战,如果选择的分布偏离真实后验分布,可能导致近似结果的偏差。其次,变分推断通常需要计算复杂度高且对初始参数值敏感的迭代求解。因此,它可能无法在所有情况下提供最优的近似解。 综上所述,变分推断是一种强大的近似推理方法,可以用于处理复杂概率模型的后验分布。它在计算效率和模型灵活性方面具有一定优势,但同时也存在某些局限性。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值