MCMC

news/2024/11/25 13:35:00/

背景

给定一个的概率分布 p(x) , 我们希望产生服从该分布的样本。前面介绍过一些随机采样算法(如拒绝采样、重要性采样)可以产生服从特定分布的样本,但是这些采样算法存在一些缺陷(如难以选取合适的建议分布,只适合一元随机变量等)。下面将介绍一种更有效的随机变量采样方法:MCMC 和 Gibbs采样,这两种采样方法不仅效率更高,而且适用于多元随机变量的采样。

如果一定条件下,马尔可夫链可以收敛到平稳分布。一个绝妙的想法是:如果能构造一个转移矩阵为 P 的马尔可夫链,是其平稳分布刚好是 p(x) 。那我们就可以从任何一个初始状态 x0 出发,沿着马尔可夫链转移,得到一个转移序列 x0 , x1 , x2 ,…, xn , xn+1 , xT , 如果马尔可夫链在第 n 布已经收敛,我们就得到了 p(x) 的样本 xn,xn+1xT , 过程如下所示:

  1. 设置 t=0
  2. 生成一个随机状态 u , 设定初始状态 x0=u
  3. 重复
    t=t+1
    根据转移概率 p(xt|xt1) , 采样得到 u
    设置 xt=u
  4. 直到 t=T

这种方法在1953年被 Metropolis 想到了,为了研究粒子系统的平稳性质,Metropolis 考虑了常见的玻尔兹曼分布的采样问题,首次提出了基于马尔可夫链蒙特卡罗的采样方法,即 Metropolis 算法,并在计算机上进行了编程实现。Metropolis 算法是首个普适的采样方法,并启发了一系列MCMC方法,所以人们把它作为随机模拟技术腾飞的起点。Metropolis 的这篇论文被收录在《统计学中的重大突破》,Metropolis 算法当选为二十世纪十个最重要的算法之一。

Metropolis 算法

假定目标概率分布为 p(x) , 我们已经有一个转移矩阵为 Q q(i,j) 表示从状态 i 转移到状态 j 的概率)的马尔可夫链。通常情况下不满足马尔可夫链的细致平稳条件:

p(i)q(i,j)p(j)q(j,i)

所以 p(x) 通常不是这个马尔可夫链的平稳分布。我们可否对该马氏链做一个改造,使得细致平稳条件成立呢?譬如,我们引入一个接受率 α(i,j) , 我们希望:
p(i)q(i,j)α(i,j)=p(j)q(j,i)a(j,i)

取什么样的 α(i,j) 才能让上式成立呢?最简单的,根据对称性,我们可以取
α(i,j)=p(j)q(j,i)
α(j,i)=p(i)q(i,j)

此时细致平稳条件成立:
p(i)q(i,j)α(i,j)q(i,j)=p(j)q(j,i)α(j,i)q(j,i)

于是我们将原来具有转移矩阵 Q 的一个普通的马氏链,改造成了具有转移矩阵 Q q(i,j) 表示从状态 i 转移到状态 j 的概率)的马氏链。而此马氏链的平稳分布刚好就是目标概率分布 p(x)

这里写图片描述

接受率 α(i,j) 的理解

由于 α(i,j)=p(j)q(j,i)1 ,因此

jSq(i,j)=jSq(i,j)α(i,j)jSq(i,j)=1
索引矩阵 Q 不满足马尔可夫链状态转移矩阵的条件,因而不能直接作为马尔可夫链的转移矩阵。

细致平稳条件的直观含义如下图所示:

这里写图片描述

一般介绍MCMC的资料中没有说明状态自我转移永远是满足细致平稳条件的,自己转给自己,当然转入和转出相等。 因此可以增加自我转移的概率 q(i,i) ,使 jSq(i,j)=1 成立 。Metropolis算法细致平稳条件如下图所示:

这里写图片描述

从以上分析可以发现, α(i,j) 表示在原来转移矩阵为 Q 的马氏链中,从状态 i 以概率 q(i,j) 转移到状态 j 的时候,我们以 α(i,j) 接受这个转移。而以概率 q(i,j)(1α(i,j)) 拒绝这个转移(进行自我转移)。因此称 α 为接受率。

Metropolis算法流程

假定目标分布为 p(x) ,我们已经有了一个转移矩阵为 Q (对应元素为 q(i,j) ),经典MCMC算法流程如下所示
这里写图片描述

以上分析中 p(x) , q(x|y) 说的都是离散的情形,事实上即便这两个分布式连续的,以上算法仍然有效(此时 p(x) 表示概率密度, q(x|y) 表示条件概率密度),因此可以生成服从连续的概率分布 p(x) 的样本。

注:MCMC算法是以于马尔可夫链为基础的。马尔可夫链通常研究的是时间和状态都是离散的随机过程。而连续分布实际上对应的状态是连续的。那么MCMC算法可以对连续分布进行采样的原因又是什么??

Metropolis-Hastings 算法

以上的Metropolis采样算法已经能漂亮地工作了,不过它有个小问题:马氏链在转移的过程中的接受率 α(i,j) 可能偏小,采样过程中容易原地踏步(自我转移),拒绝大量的跳转。这会导致马氏链收敛到稳态分布需要很长的时间。有没有办法提升接受率呢?

假设在Metropolis算法中 α(i,j)=0.1 α(j,i)=0.2 ,满足细致平稳条件,下式成立:

p(i)q(i,j)×0.1=p(j)q(j,i)×0.2

将上式两边同时扩大5倍
p(i)q(i,j)×0.5=p(j)q(j,i)×1

看!我们将接受率 α(i,j) α(j,i) 放大了5倍,而细致平稳条件仍然成立!这启发 我们可以把接受率 α(i,j) α(j,i) 同比例放大,最优的情况是使得两个数中较大的一个放大到1(因为接受率要求小于等于1)。所以我们可以取
α(i,j)=min{p(j)q(j,i)p(i)q(i,j),1}

于是,通过对Metropolis算法中的接受率的微小改造,我们就得到了如下教科书中最常见的Metropolis-Hastings 算法。

这里写图片描述

注:对未归一化的概率分布 p(x)=p~(x)Xp ( Xp 未知)。MH算法仍然适用。只需将 Algorithm 6 中的接受率可变换为:

α(xt,y)=min{p(y)q(xt|y)p(xt)p(y|xt),1}=min{p~(y)q(xt|y)p~(xt)p(y|xt),1}
可以发现接受率 α 与归一化常数无关!

例子

采用 MH算法生成服从Cauchy分布的样本。MH算法采样的过程如下所示:

当前的状态为 xt
这里写图片描述

利用建议分布(这里使用正态分布)进行采样得到 y
这里写图片描述

若接受转移,则 xt+1=y
这里写图片描述

matlab代码如下:

%%M-H算法
T = 500;  %the maximum number of iterations
sigma = 1;%the deviation of normal proposal density
x_min=-10; x_max=10   %define a range for starting values
x = zeros(1,T);%init storage space for our samples
seed=1; rand('state',seed); randn('state',seed);    %random seed
x(1) = unifrnd(x_min,x_max);%%Start sampling
t=1;
while t<T   %Iterate until we have T samplest=t+1;%propose a new value for theta using a normal proposal densityy = normrnd(x(t-1),sigma);%Calculate the acceptance ratioalpha = min([1,(cauchy(y)*normpdf(x(t-1),y,sigma))/(cauchy(x(t-1))*normpdf(y,x(t-1),sigma))]);%draw a uniform deviate from [0,1]u=rand;%accept this proposal?if u<alphax(t)=y;elsex(t)=x(t-1);end
end%%  Display histogram of our samples
figure(1); clf;
subplot(3,1,1);
nbins=200;
thetabins = linspace(x_min,x_max,nbins);
counts = hist(x,thetabins);
bar(thetabins,counts/sum(counts),'k');
xlim([x_min x_max]);
xlabel('x'); ylabel('p(x)');%% Overlay the theoretical density
y=cauchy(thetabins);
hold on;
plot(thetabins,y/sum(y),'r--','LineWidth',3);
set(gca,'YTick',[]);%% Display history of our samples
subplot(3,1,2:3);
stairs(x,1:T,'k-');
ylabel('t');xlabel('x');
set(gca,'YDir','reverse');
xlim([x_min x_max]);

实验结果:
这里写图片描述

参考文献

随机采样方法整理与讲解(MCMC、Gibbs Sampling等
MCMC方法的理解
Computational Statistics with Matlab


http://www.ppmy.cn/news/139493.html

相关文章

机器学习常识 12: SVM

摘要: 支持向量机 (support vector machine, SVM) 有很多闪光点, 理论方面有 VC 维的支撑, 技术上有核函数将线性不可分变成线性可分, 实践上是小样本学习效果最好的算法. 1. 线性分类器 如图 1 所示, 基础的 SVM 仍然是一个线性二分类器, 这一点与 logistic 回归一致. 图 1.…

Hive Container 内存溢出问题解决

一、报错 由此可以看出单个 container设置的是10GB&#xff0c;已经超出10GB&#xff1b; 二、查看和设置参数命令 通过set hive.tez.container.size可以查看默认的container内存&#xff1b; 如果设置10G内存内存溢出则可以执行set hive.tez.container.size12288&#xff0c…

Razor代码复用

1.布局&#xff08;Layout&#xff09;复用 Layout的使用&#xff0c;就像WebForm的模板页一样&#xff0c;甚至会更加简单&#xff0c;更加方便和明了。 要使用Layout&#xff0c;首先要在模板页相应的位置添加RenderBody()方法&#xff1a; <!DOCTYPE html><html la…

2.7 编译型和解释型

2.7 编译型和解释型 前面我们使用java和javac命令把Hello&#xff0c;World&#xff01;在控制台输出。那为什么输出&#xff0c;这里我们需要掌握两个知识点。编译型语言和解释型语言。在计算机的高级编程语言就分为编译型语言和解释型语言。而我们的Java既有编译型的特点也有…

Intel-4004微处理器(MCS-4微机)

从最开始进行分析&#xff0c;一步一步扩展与改进&#xff0c;直到今天的高速信息处理时代 最难的是&#xff0c;该处理器时间太早&#xff0c;很多资料和功能信息都很难查找 4004芯片&#xff1a; 4004历史 Intel-4004已经很难买到了&#xff0c;可以说是“老古董”。 Intel…

CSS 选择器的常见用法

前言 CSS在编写代码的时候有很多种样式&#xff0c;和和HTML&#xff0c;JS相似&#xff0c;他们都是运行在浏览器中的&#xff0c;下面就介绍一下CSS选择器的常见用法。 标签选择器使用标签名把页面中所有同名标签都选中类选择器使用.类名的方式对应一组CSS属性id选择器使用 …

Spring父子容器

一、痛点 当前开发工程以来的spring-boot-starter脚手架&#xff0c;配置了很多通用的bean&#xff0c;而部分无法满足自身需求&#xff0c;因此需要自定义bean&#xff0c;这时候就有可能出现自己定义bean和脚手架或者引入的第三方依赖中的某个bean冲突&#xff0c;导致出现b…

小米联合金山云发布“1KM边缘计算” 携手布局“云+边缘”新赛道

金山云CEO王育林&#xff1a; “今天是一个特别特别特别的发布会&#xff0c;因为小米每次发布会都有硬件&#xff0c;而这次是和我们金山云联合发布“1KM边缘计算”解决方案&#xff0c;打造“云亿级终端”边缘计算模式。当然我们和小米的合作属于厚积薄发&#xff0c;是之前一…