#!/usr/bin/env python # coding: utf-8 # ### 一.基本思路:马尔可夫链收敛到平稳态 # 在[《12_05_PGM_马尔科夫链_初探及代码实现》](https://nbviewer.jupyter.org/github/zhulei227/ML_Notes/blob/master/notebooks/12_05_PGM_%E9%A9%AC%E5%B0%94%E7%A7%91%E5%A4%AB%E9%93%BE_%E5%88%9D%E6%8E%A2%E5%8F%8A%E4%BB%A3%E7%A0%81%E5%AE%9E%E7%8E%B0.ipynb)这一节,我们首次探索了马尔可夫链,并在本末讨论并说明了它的一个重要性质:**马尔可夫链的平稳态**,而且在后面的PageRank算法中使用了它的这个性质,这部分内容其实是要求这样一个问题: # #
**已知马尔可夫模型的状态转移概率矩阵$P$,求它的平稳态$\pi^*$,使得$P\pi^*=\pi^*$**
# # 将这个问题反过来,那就是**MCMC**(马尔科夫蒙特卡洛抽样法)的主要思想咯: # #
**已知某分布$\pi$,求一个马尔可夫模型的状态转移概率矩阵$P^*$,使得$P^*\pi=\pi$**
# # 于是,我们求一个$P^*$满足上面的条件即可,但是要用于MCMC,对$P^*$的要求更加苛刻一些:要保证在$P^*$的条件下,**平稳态必须是唯一**的,换言之,给定一个概率转移矩阵,它的平稳态可能有多个,比如下面的例子 # In[1]: import numpy as np import pandas as pd import os os.chdir('../') from ml_models.pgm import SimpleMarkovModel # In[2]: smm=SimpleMarkovModel(status_num=3) smm.P=np.asarray([ [1,1/3,0], [0,1/3,0], [0,1/3,1] ]) # In[3]: #定义初始状态 init_prob=np.asarray([[0.2],[0.7],[0.1]]) pd.DataFrame({50:smm.predict_prob_distribution(1,set_init_prob=init_prob).reshape(-1).tolist(), 100:smm.predict_prob_distribution(10,set_init_prob=init_prob).reshape(-1).tolist(), 500:smm.predict_prob_distribution(50,set_init_prob=init_prob).reshape(-1).tolist(), 1000:smm.predict_prob_distribution(100,set_init_prob=init_prob).reshape(-1).tolist(), 2000:smm.predict_prob_distribution(200,set_init_prob=init_prob).reshape(-1).tolist()}) # In[4]: #定义另一组初始状态 init_prob=np.asarray([[0.8],[0.1],[0.1]]) pd.DataFrame({50:smm.predict_prob_distribution(1,set_init_prob=init_prob).reshape(-1).tolist(), 100:smm.predict_prob_distribution(10,set_init_prob=init_prob).reshape(-1).tolist(), 500:smm.predict_prob_distribution(50,set_init_prob=init_prob).reshape(-1).tolist(), 1000:smm.predict_prob_distribution(100,set_init_prob=init_prob).reshape(-1).tolist(), 2000:smm.predict_prob_distribution(200,set_init_prob=init_prob).reshape(-1).tolist()}) # In[5]: #再定义另一组初始状态 init_prob=np.asarray([[0.4],[0.5],[0.1]]) pd.DataFrame({50:smm.predict_prob_distribution(1,set_init_prob=init_prob).reshape(-1).tolist(), 100:smm.predict_prob_distribution(10,set_init_prob=init_prob).reshape(-1).tolist(), 500:smm.predict_prob_distribution(50,set_init_prob=init_prob).reshape(-1).tolist(), 1000:smm.predict_prob_distribution(100,set_init_prob=init_prob).reshape(-1).tolist(), 2000:smm.predict_prob_distribution(200,set_init_prob=init_prob).reshape(-1).tolist()}) # 由上面的例子可以发现,由于初始状态的不同,平稳态可能有多个,所以我们构造的$P$必须要保证平稳态能唯一的收敛到我们的目标分布$\pi$,不然,如上面的例子,假如我们的目标分布是$\pi=[0.65,0,0.35]$,然后我们构造了一个概率转移矩阵$P=\begin{bmatrix} # 1 & 1/3 & 0\\ # 0 & 1/3 &0 \\ # 0 & 1/3 & 1 # \end{bmatrix}$ ,满足$P\pi=\pi$,然后,我们随便定义了一个初始点$x_0=[0.8,0.1,0.1]$,在$P$上随机游走采样$\{x_1,x_2,...,x_n\}$,最后发现它成功收敛到了$x_n\rightarrow [0.85,0,0.15]$,哈哈哈哈哈~~~~ # # 保证马尔科夫模型仅收敛到唯一平稳态的**充分条件**是有的!那就是**细致平衡方程** # ### 二.保证平稳态唯一:细致平衡方程 # 细致平衡方程的定义如下,设有马尔科夫链$X=\{X_0,X_1,...,X_t,...\}$,状态空间为$S$,转移概率矩阵为$P$,如果有状态分布$\pi=(\pi_1,\pi_2,...)^T$,对任意时刻状态$i,j\in S$,对任意时刻$t$均满足: # # $$ # P(X_t=i\mid X_{t-1}=j)\pi_j=P(X_{t-1}=j\mid X_t=i)\pi_i,i,j=1,2,.... # $$ # # 或者简写为: # # $$ # p_{ij}\pi_j=p_{ji}\pi_i,i,j=1,2,.... # $$ # # 为了更加直观,也可以写作: # # $$ # p(j\rightarrow i)\pi_j=p(i\rightarrow j)\pi_i # $$ # 这便是细致平衡方程,此时的马尔科夫链称为可逆马尔科夫链,显然对$P$矩阵按列求和为1,即$\sum_{i}p_{ij}=1$或者$\sum_ip(j\rightarrow i)=1$ ,接下来简单证明一下,满足细致平衡条件,则有$P\pi=\pi$成立: # # $$ # (P\pi)_i=\sum_jp_{ij}\pi_j=\sum_jp_{ji}\pi_i=\pi_i\sum_{j}p_{ji}=\pi_i,i=1,2,... # $$ # # **高维/连续状态空间**:上面只是对一维离散状态空间做的说明,而细致平衡方程对高维空间或者连续状态空间一样是成立的,只需对相应符号做修改即可,比如将$p_{ij}$修改为一个函数的形式$p(状态j,状态i)$,求和符号$\sum$需要替换为积分符号$\int$ # ### 三.小结 # 最后小结一下,这一节的重点引出细致平衡方程: # # $$ # p_{ij}\pi_j=p_{ji}\pi_i # $$ # # 因为在满足该方程约束的条件下,我们构造的$P^*$,必然有$P^*\pi=\pi$,且$\pi$唯一(这里$\pi$是我们的目标分布),这也是检验MCMC是否有效的一条重要标准,下一节将要介绍的Metropolis-Hastings算法(MH算法)便是满足该约束条件的一套算法 # # #### 采样步骤 # # 再对MCMC的采样步骤做个整理 # # (1)首先在随机变量$x$的状态空间上构造一个马尔科夫链$P$,使它能平稳且唯一的收敛到我们的目标分布$p(x)$; # # (2)从状态空间某一点$x_0$出发,用构造的马尔科夫链$P$进行随机游走,产生样本序列$x_0,x_1,...,x_t,....$; # # (3)确定一个正整数$m,n$($m