有了馬爾科夫的假設,在解決這個序列決策過程才比較方便,而且實用...
在馬爾科夫鏈(狀態轉移矩陣為)中隨機遊走,當達到平穩分佈時,每個時刻隨機遊走一次,就可以得到一個樣本,這時,以一定的接受率獲得,和上篇文章中的拒絕-接受取樣極其類似,以一個常見的馬爾科夫鏈狀態轉移矩陣透過一定的接受-拒絕機率得到目標轉移矩陣...
總結下基於馬爾科夫鏈的取樣過程:2.4 馬爾科夫鏈取樣小結如果假定我們可以得到我們需要取樣樣本的平穩分佈所對應的馬爾科夫鏈狀態轉移矩陣,那麼我們就可以用馬爾科夫鏈取樣得到我們需要的樣本集,進而進行蒙特卡羅模擬...
思路:構造一個滿足遍歷定理條件的 Marcov 鏈,使它的平穩分佈就是目標分佈(也就是那個奇怪的分佈),進而選定一個初始狀態,經過足夠長的迭代後,每次遞推得到的都是滿足要求的隨機數...